Suscríbete aquí al boletín informativo del Brennan Center en español
- El Pentágono utiliza la inteligencia artificial para generar cientos de recomendaciones sobre objetivos en Irán, determinar su localización, priorizar su importancia y hasta para evaluar si el ataque de esos objetivos es legal.
- Además de la vigilancia y los ataques, los militares están invirtiendo fuertemente en el desarrollo de las armas autónomas.
Desde Irán a Venezuela, las fuerzas militares estadounidenses están desplegando una estrategia de guerra en la cual “la inteligencia artificial va primero”. Pero una disputa reciente entre el Departamento de Defensa y la empresa de inteligencia artificial Anthropic genera cuestionamientos sobre si el despliegue militar de esta tecnología es efectivo, seguro y legal.
¿Cuál es la disputa entre el Pentágono y Anthropic?
Anthropic quería que las fuerzas militares prometieran no utilizar su modelo de inteligencia artificial, Claude, en armas capaces de identificar y disparar contra objetivos sin la intervención humana —comúnmente conocidas como “armas totalmente autónomas”. La compañía también buscó prohibir el uso de Claude para espiar a la población estadounidense, particularmente mediante el análisis de los archivos de localización, la información financiera y otros grandes conjuntos de datos que las fuerzas militares compraron en el mercado comercial.
La solicitud se produjo después de los informes sobre el uso de Claude por parte de los militares en el ataque contra Venezuela y la captura de Nicolás Maduro en enero. Claude es un modelo base, lo que significa que está entrenado a partir de conjuntos de datos masivos para realizar tareas generales, como sintetizar texto, manipular imágenes y generar audios.
El Pentágono se negó a aceptar estas restricciones, y luego vetó a Anthropic de la contratación en defense al designarla como una empresa “de riesgo para la cadena de suministro”. La empresa demandó esta designación como una violación al debido proceso y a la Primera Enmienda, entre otros alegatos.
¿Cómo han las fuerzas militares de EE. UU. utilizado la inteligencia artificial en Irán?
El Pentágono, según reportes, utiliza la inteligencia artificial para generar cientos de recomendaciones sobre objetivos en Irán, determinar su localización, priorizar su importancia y hasta para evaluar si el ataque de esos objetivos es legal.
Uno de los sistemas de inteligencia artificial que está utilizando, Maven Smart System, es la culminación de una década de colaboración entre el Departamento de Defensa y la industria de tecnología para mejorar el análisis de inteligencia, vigilancia y ataques. El sistema permite a los militares analizar cantidades masivas de información sobre satélites, comercializadores de datos, los propios drones y censores militares y las redes sociales para seleccionar personas y objetivos de interés.
El sistema también integra a Claude de Anthropic, el cual los militares utilizan no solo para acelerar sus análisis de los objetivos, sino también para generar otro tipo de inteligencia y simular escenarios de combate.
¿Cuánto están gastando los militares en inteligencia artificial?
El Departamento de Defense asignó por lo menos $75 mil millones a los programas enfocados en la inteligencia artificial desde 2016, como presentó un informe del Brennan Center. El total actual puede ser mucho mayor, ya que este número no incluye los programas que son secretos o aquellos en los cuales no es claro el alcance del uso de la inteligencia artificial.
Además de la vigilancia y los ataques, los militares están invirtiendo fuertemente en el desarrollo de las armas autónomas, las cuales pueden seleccionar objetivos y tomar acción letal con diferentes grados de participación humana. La guerra en Ucrania se transformó debido a la rápida innovación en el uso de drones pequeños en el combate, lo que ha incrementado la presión sobre las fuerzas militares de EE. UU. de mantenerse al día. Tan solo en 2026, el Pentágono solicitó $13.4 mil millones para estos tipos de sistemas.
El gasto de las fuerzas militares también incluye hasta $9 mil millones en centros de datos y capacidades de computación personalizados a sus necesidades en seguridad. Esta es la infraestructura que mantiene en línea a los sistemas militares de inteligencia artificial y tecnología.
Estas sumas, con casi total certeza, se incrementarán mientras el Pentágono avance con su estrategia de “la inteligencia artificial va primero”.
¿Cuáles compañías han recibido contratos para desarrollar la inteligencia artificial con un enfoque militar?
Hasta ahora gran parte del presupuesto del Pentágono relacionado con la inteligencia artificial se ha destinado al gigante análisis de datos Palantir y Anduril, el cual fabrica drones con inteligencia artificial.
Palantir y Anduril tuvieron los ingresos más altos jamás registrados en materia de defensa en 2025 —$903 millones y $912 millones, respectivamente. Palantir es el contratista líder en el Maven Smart System, el cual ha sido empleado en Irán, Iraq, Siria, Ucrania y Yemen.
Anduril se especializa en sistemas autónomos como drones, torres de vigilancia y tecnología para repeler armas autónomas desplegadas por el adversario. Sus drones están potenciados por inteligencia artificial que es propiedad de la compañía, lo cual les permite navegar ambientes hostiles, comunicarse entre sí y potencialmente atacar objetivos con poca a nula participación humana.
En julio, el Pentágono acordó contratos con Anthropic y otras tres compañías —OpenAI, xAI y Google— para desarrollar aplicaciones militares a sus modelos base.
¿Cuáles son las principales preocupaciones sobre el uso militar de la inteligencia artificial?
El afán por adoptar la inteligencia artificial amenaza con desplazar la experticia y el juicio humano en decisiones que pueden ser de vida o muerte, lo cual pone en peligro tanto a soldados como a la población civil. Cualquiera que utilice chatbots de inteligencia artificial, por ejemplo, sabe que con frecuencia cometen errores obvios y otros que son más difíciles de detectar.
La inteligencia artificial es propensa a imprecisiones en el contexto militar también. En 2024, los algoritmos de Maven, según reportes, identificaron correctamente un tanque en condiciones climáticas favorables el 60 por ciento de las veces, mientras que su precisión se reducía a solo el 30 por ciento en condiciones de nieve. Los modelos base también generan análisis falsos o engañosos aunque los presenten persuasivamente. Esto hace más probable que los comandantes y analistas acepten sus recomendaciones, especialmente en el fragor de la guerra.
Por ende, aunque sean personas quienes toman la decisión final, depender de la inteligencia artificial para seleccionar los objetivos o justificarlos puede llevar a resultados erróneos —y en situaciones militares, estos errores pueden tener resultados fatales. Investigaciones periodísticas han encontrado que, por ejemplo, las Fuerzas de Defensa de Israel no lograron corroborar suficientemente las recomendaciones de la inteligencia artificial para los ataques en Gaza, en parte porque sus analistas estaban bajo una enorme presión para aprobarlos rápidamente.
La inteligencia artificial también permite a los militares recolectar y reunir información de localización, publicaciones en redes sociales y otros datos para recrear los movimientos de la gente, sus vínculos y hábitos a gran escala. Esta forma de vigilancia masiva amenaza la privacidad y las libertades civiles. Cuando genera apreciaciones sensibles sobre los estadounidenses, socava sus derechos de la Primera y la Cuarta Enmienda. Las interferencias que hace esta tecnología pueden ser engañosas y estar llenas de sesgos, como cuando cataloga la sátira o el humor como amenazas genuinas en seguridad, o asocia características protegidas, como identidades afrodescendientes o musulmanas, con sentimientos violentos o negativos.
¿Cuáles son los riesgos de la dependencia militar en tecnologías comerciales de inteligencia artificial?
Ceder la propiedad de las capacidades tecnológicas a las empresas de tecnología limita la visibilidad y el control que tiene el Pentágono sobre el funcionamiento interno del software que potencia sus sistemas más sensibles. A menudo, las fuerzas militares buscan en la industria los recursos y la experticia que carecen, pero esto corre el riesgo de depender en exceso de las tecnologías gestionadas por privados para satisfacer sus necesidades en materia de inteligencia artificial.
Esta opacidad dificulta a los militares inspeccionar los algoritmos de selección de los objetivos patentados en busca de sesgos ocultos que lleven a la identificación errónea de civiles como objetivos militares. También, en 2025, el ejercito advirtió que un sistema de comunicación en combate diseñado por Palantir y Anduril era una “caja negra” que hacía imposible determinar si usuarios no autorizados habían ingresado a sus aplicaciones y datos. El ejercito aparentemente mitigó el problema, pero esto genera cuestionamientos sobre si otros sistemas también sufren de vulnerabilidades similares.
¿Hay salvaguardas para garantizar el uso responsable de la inteligencia artificial por las fuerzas militares?
Sí, pero hay muy pocas protecciones y las que sí existen son insuficientes.
Mientras que el Congreso tiene el poder de regular a las fuerzas militares, ha hecho muy poco en materia de usos de la inteligencia artificial. La Casa Blanca intentó cerrar las brechas al emitir un Memorándum de Seguridad Nacional en 2024 que desglosa las salvaguardas para utilizar la inteligencia artificial en la seguridad nacional, como pruebas para identificar y minimizar los riesgos en privacidad. Pero el memorándum también les da a las agencias amplia discreción para eximirse de aplicar estas salvaguardas, incluso si “suponen un impedimento inaceptable para las operaciones críticas de la agencia”.
El Pentágono tiene su propia directriz sobre las armas autónomas, incluyendo armas con funciones basadas en la inteligencia artificial. La directriz no prohíbe las armas que pueden identificar y disparar contra objetivos sin la participación humana. En vez, antes de aprobar su uso, requiere a los líderes senior del Departamento de Defensa revisar si estas armas permiten “niveles aceptables de juicio humano sobre el uso de la fuerza”. Este estándar se cumple siempre y cuando exista una participación humana más amplia en las decisiones sobre dónde y cómo utilizar las armas.
La directriz también exige pruebas, capacitación y otros protocolos para minimizar fallas y daños a la población civil. Sin embargo, los recortes a la supervisión del Pentágono generan dudas sobre su capacidad de cumplimiento: por ejemplo, redujo la mitad del personal de la Oficina del Director de Pruebas y Evaluación Operacional, la cual vigila gran parte de estas pruebas, y clausuró la mayoría de sus iniciativas de protección civil.
Por último, las fuerzas militares están adquiriendo grandes bases de datos comerciales —que incluyen información personal y sensible de los estadounidenses— sin supervisión judicial. Las normas internas emitidas por la Oficina del Director de Inteligencia Nacional no restringen de manera significativa esta práctica.
¿Cómo puede el Congreso regular mejor el uso de la inteligencia artificial por parte de las fuerzas militares?
El Congreso debería garantizar que el Pentágono explique no solo cómo utiliza la inteligencia artificial, sino también cuánto se está gastando en esta tecnología, además de los riesgos y fallas conocidas en los sistemas que adquiere. Los legisladores deberían exigir pruebas y evaluaciones de la inteligencia artificial que representen riesgos para la seguridad de los soldados, el derecho a la privacidad y las libertades civiles de los estadounidenses, y a la vida de la población civil. Estos requisitos deben aplicarse tanto antes como durante el uso de la tecnología.
El Congreso debe restringir el uso de las armas autónomas, de conformidad con las leyes de guerra, como la prohibición contra armas intrínsicamente indiscriminadas. También puede promulgar protecciones en privacidad más fuertes. Un buen comienzo sería aprobar la Ley de la Cuarta Enmienda No Se Vende, la cual prohibiría a las agencias de gobierno comprar cierto tipo de datos sensibles pertenecientes a la ciudadanía sin un proceso legal.
Estas salvaguardas requieren una aplicación y supervisión rigurosas. El Congreso debe revertir los recortes de personal e incrementar el presupuesto del Director de Pruebas y Evaluación Operacional. Además, debe evaluar seriamente cómo la subcontratación de las capacidades de inteligencia artificial a un puñado de empresas de tecnología podría afectar la seguridad nacional.
Traducción de Laura Gómez