Suscríbete aquí al boletín informativo del Brennan Center en español
Para el informe completo en inglés haz clic aquí.
La carrera del Pentágono por implementar sistemas de IA acelerará su enorme dependencia de estas tecnologías.
El mayor uso acelerado de la IA en los combates bélicos no ha sido acompañado de la misma urgencia por reconocer sus peligros.
En un mundo en guerra en cinco continentes y en medio de una competencia cada vez más intensa entre las grandes potencias, el Departamento de Defensa (DOD, por su sigla en inglés) de los Estados Unidos ha forjado importantes alianzas con la industria de la tecnología para modernizar sus capacidades militares.
Los rápidos avances tecnológicos han hecho de la inteligencia artificial (IA) una herramienta muy poderosa para extraer y analizar datos, y acelerar la toma de decisiones en el campo de batalla. La IA también ha demostrado ser útil en una amplia gama de funciones de apoyo, desde ayudar a las fuerzas armadas a pronosticar sus necesidades de mantenimiento y la reparación de armas hasta organizar las líneas de suministro durante un conflicto.
Muchos líderes militares le han atribuido al Proyecto Maven —un proyecto piloto realizado con compañías tecnológicas líderes para desarrollar una IA que examine e interprete grabaciones satelitales y de drones— el logro de haber reducido significativamente el tiempo que lleva identificar objetivos y atacarlos.
La Unidad de Innovación en Defensa (DIU, por su sigla en inglés), la organización dentro del Pentágono que funciona como el lazo de conexión entre Silicon Valley y los militares, ha acelerado la firma de contratos para desarrollar tecnologías experimentales de drones, que la DIU promete que hará que las operaciones de combate sean “menos costosas” y ayudará a “colocar a menos personas en la línea de fuego”.
Sin embargo, muchas alegaciones sobre la efectividad de la tecnología siguen sin comprobarse, y los riesgos para los soldados y la población civil continúan sin evaluarse. Los errores de la IA pueden derivar en fallas del sistema que identifican erróneamente a los civiles como objetivos de ataque y, al mismo tiempo, pasan por alto amenazas genuinas, lo cual menoscaba el propósito de la misión, la seguridad del combate y las obligaciones impuestas por las leyes de guerra. Estos errores pueden ocurrir aun cuando se incorpora el control humano.
Por lo general, los comandantes y los operadores de los sistemas de armas deben verificar y confirmar de forma independiente los objetivos que produce la IA. Pero, en realidad, es posible que terminen confiando demasiado en las recomendaciones de los algoritmos. Además, una mayor dependencia en la IA reduce la vida de las personas a la generación de bips y puntos de datos en una pantalla, lo cual podría insensibilizar a los soldados durante actos de destrucción y muerte.
A pesar de estos peligros, varios líderes del gobierno y del sector de la tecnología insisten en que los militares no están actuando tan rápido como deberían. Shyam Sankar, el director ejecutivo de tecnología en Palantir Technologies, se ha mostrado alarmado de que “el Occidente prácticamente ha perdido su capacidad de disuasión” contra China, debido a la regulación y burocracia excesivas.
El secretario de Defensa, Pete Hegseth, afirmó que la adquisición de las nuevas tecnologías militares es “inaceptablemente lenta” y ha ordenado una larga lista de cambios para colocar a las fuerzas armadas “en pie de guerra”. Estos esfuerzos coinciden con un aumento sin precedentes en el presupuesto anual del Departamento, que para el año fiscal de 2026 asciende a $1 billón, es decir, una expansión de más del 13 por ciento con respecto al año fiscal 2025.
La carrera del Pentágono por implementar sistemas de IA acelerará su enorme dependencia de estas tecnologías. Desde el lanzamiento del Proyecto Maven en 2017 y, en especial, desde el año 2020, los contratos del Pentágono concedidos a las compañías tecnológicas que se dedican a la construcción y asistencia de los sistemas de IA han crecido exponencialmente.
Las dos compañías principales que impulsan este crecimiento —Palantir Technologies, una gigantesca corporación especializada en el análisis de datos, y Anduril Industries, fabricante de sistemas autónomos— han incrementado sus ingresos en los contratos de defensa a un ritmo mucho más veloz que la mayoría de otros contratistas comparables del gobierno. Muchos líderes de la industria también están asumiendo un rol más importante en la formulación de políticas, en especial las relacionadas con la adquisición, puesta a prueba y el control de las mismas tecnologías en las que tienen una participación financiera.
Toda innovación responsable requiere que el gobierno logre el equilibrio correcto entre la velocidad y la cautela. Las fuerzas armadas deben poder realizar evaluaciones lógicas y basadas en datos precisos sobre el rol adecuado que debería desempeñar cualquier nueva tecnología a la hora de suplir las capacidades faltantes. También debe llevar a cabo la debida diligencia y las pruebas necesarias para asegurarse de que las nuevas tecnologías adoptadas sean seguras y efectivas, y no infrinjan derechos fundamentales.
Sin embargo, el mayor uso acelerado de la IA en los combates bélicos no ha sido acompañado de la misma urgencia por reconocer sus peligros. Se ha sujeto a mínimos estándares de transparencia y se lo ha aislado de un auténtico debate público y control legislativo.
Hasta la información más básica sobre los tipos de sistemas que está adoptando el Pentágono, su grado de efectividad y seguridad, y hasta qué punto su uso cumple con las leyes de guerra y otras salvaguardas suele esconderse de la vista del Congreso y del público. La naturaleza patentada de muchos de estos sistemas también plantea dudas sobre si el propio Pentágono tiene acceso a los datos necesarios para llevar a cabo una debida diligencia y monitorear los rendimientos.
Además, hay muy pocas salvaguardas que garanticen una correcta contabilización de los costos y los riesgos de una guerra asistida por IA.
Aparte de los drásticos cambios que está liderando Hegseth en materia de adquisiciones tecnológicas, el Pentágono ha reducido drásticamente los esfuerzos en toda la agencia de poner a prueba y evaluar los principales sistemas de armas y estudiar los riesgos de daños civiles, con lo cual se hace más difícil asegurar que los sistemas asistidos por IA funcionarán como se prevé y sin daños colaterales excesivos. Las reglas que había introducido la administración del presidente Joe Biden para abordar ciertos riesgos de la IA —que, para empezar, tampoco eran suficientes— podrían debilitarse aún más bajo la presidencia de Donald Trump.
Poner en práctica las regulaciones y los controles en todo el proceso de adquisición, entrenamiento, ajustes y despliegue de un programa de IA puede marcar la diferencia entre el éxito y el fracaso. Los drones autónomos enviados por algunas empresas startups tecnológicas de Estados Unidos para ayudar a Ucrania en el conflicto con Rusia, por ejemplo, demostraron ser propensos a errores, difíciles de reparar y fácilmente abortados mediante técnicas electrónicas relativamente básicas de interferencia.
La dependencia de Ucrania en estos drones ha sido escasa, pero, si las fuerzas armadas estadounidenses emplearan herramientas de IA tan riesgosas y poco confiables como estas en sus principales funciones de combate, podrían colocar a los civiles y trabajadores humanitarios en la mira.
También en Gaza, varias imprecisiones en la inteligencia generada por IA sobre la identidad y ubicación de los militantes han informado ataques israelíes que se cobraron la vida de muchísimas personas civiles, mientras que algunos errores en los sistemas de reconocimiento facial han contribuido a arrestos e interrogatorios indebidos de personas palestinas.
Este informe documenta el mayor uso de la IA por parte de las fuerzas militares, el rol de la industria tecnológica a la hora de impulsar una adopción aún más amplia y los riesgos que plantea una regulación ineficaz en este sentido. La Parte I del informe identifica los aspectos del combate bélico donde el DOD está realizando las inversiones más fuertes en las tecnologías de IA.
La Parte II analiza en profundidad los datos de contratación de defensa para demostrar cómo el Departamento está dirigiendo estas inversiones cada vez más hacia unas pocas firmas tecnológicas con los recursos necesarios para el desarrollo y la asistencia de sistemas de IA.
La Parte III evalúa el mayor impacto e influencia de estas firmas en la elaboración de las políticas. La Parte IV analiza los vacíos y las lagunas legales en el conjunto fragmentario de las actuales reglas que rigen la forma en que los militares adquieren y utilizan la IA.
La Parte V examina cómo esta carrera por adoptar los sistemas de IA sin las salvaguardas auténticas ni los controles independientes podría llenar a las fuerzas militares de sistemas ineficientes e inseguros que, encima, infligen un daño civil excesivo e infringen la privacidad y las libertades civiles de las personas. La Parte VI ofrece una hoja de ruta para implementar los controles, frenos y contrapesos en este trascendental momento para el futuro de las guerras.
Traducción de Ana Lis Salotti