Skip Navigation
Análisis

Cómo una nueva política de Trump sobre la inteligencia artificial podría comprometer esta tecnología

Una nueva orden ejecutiva dice que el gobierno solo comprará modelos de inteligencia artificial (IA) que sean neutrales y no partidistas, pero, en realidad, esta política obliga a que las compañías tecnológicas se ajusten a la ideología de la administración. 

agosto 12, 2025
Qi Yang/Getty
  • La orden ejecutiva de la semana pasada forma parte de una estrategia de la administración por “lograr el dominio global en inteligencia artificial”.
  • Cumplir con la orden probablemente requerirá que las compañías de tecnología debiliten el rendimiento de sus modelos y socaven la confianza del público en sus tecnologías

Suscríbete aquí al boletín informativo del Brennan Center en español

La orden ejecutiva del presidente que dicta qué tipo de inteligencia artificial el gobierno puede comprar terminará promoviendo la censura y limitando el acceso a la información en internet. También haría de la IA algo menos confiable y segura.

La orden ejecutiva de la semana pasada forma parte de una estrategia de la administración por “lograr el dominio global en inteligencia artificial”. Considerada como una medida para “prevenir una IA con ideología progresista en el gobierno federal”, ordena a las agencias a abstenerse de contratar con compañías que no alinean sus tecnologías con lo que la entidad federal define como la “búsqueda de la verdad” y “neutralidad ideológica”.

La orden específicamente impacta a los grandes modelos de lenguaje, un tipo de IA que se entrena con grandes cantidades de texto y se utiliza para responder preguntas y realizar una amplia gama de tareas relacionadas con el lenguaje, como traducciones.

Estos modelos son la base de ChatGPT de OpenAI, Alexa de Amazon, Siri de Apple y de la moderación de contenido en las plataformas de redes sociales, entre otros usos. La orden exige a las agencias federales comprar grandes modelos de lenguaje solo si estos generan “respuestas verídicas” a las instrucciones de los usuarios y se comprueba que son “herramientas no partidistas” que no “codifican intencionalmente juicios partidistas o ideológicos”.

Estas restricciones aparentan un compromiso con la verdad y la imparcialidad mientras esperan que las compañías tecnológicas se ajusten a la versión de la realidad de la administración, la cual incluye la visión de que las iniciativas para mitigar la discriminación laboral son un ataque a la meritocracia, que las personas transgénero no deberían ser reconocidas y que el cambio climáticono es real.

La restricción a los “juicios partidistas o ideológicos” es lo suficientemente imprecisa como para darle lugar a los caprichos de los líderes políticos, quienes pueden invocar este requisito para presionar a las compañías a ocultar informes sobre filtraciones de inteligencia, fallas en seguridad o conflictos de interés sobre sus productos.

¿Qué opciones tienen las compañías de tecnología para cumplir?

Cumplir con la orden probablemente requerirá que las compañías de tecnología debiliten el rendimiento de sus modelos y socaven la confianza del público en sus tecnologías.

Una opción que pueden escoger es introducir filtros de contenido o “barreras” para prevenir a los chatbots y similares responder a instrucciones sobre temas que pueden generar ira en la administración, como la diversidad, equidad e inclusión, o el cambio climático. El año pasado, los usuarios de ChatGPT descubrieron que OpenAI había aplicado filtros a los nombres de ciertas personas. Una de ellas era el docente de Harvard y científico en computación Jonathan Zittrain, quien encontró que ChatGPT se rehúsa a responder preguntas sobre él.

Estos filtros son imprecisos y rudimentarios. Preguntar sobre Jonathan L. Zittrain, por ejemplo, es suficiente para generar una respuesta. Este tipo de errores generan un ejercicio imposible de demarcación de límites para las compañías tecnológicas: ¿Si alguien no puede preguntarle a un chatbot sobre el cambio climático, sí podría sobre el calentamiento global? ¿O los gases de efecto invernadero? ¿O los “daños al clima”? Estos filtros requerirán que los usuarios eviten utilizar palabras claves prohibidas —muchas de las cuales probablemente sean desconocidas para ellos— para realizar simples búsquedas sobre estos temas, resultando en modelos frustrantes de utilizar.

Todavía más preocupante son los métodos que las compañías de tecnología pueden utilizar para guiar sus modelos hacia respuestas que la administración reconoce como “verídicos” o “sin sesgos”. Estos operan de forma mucho menos transparente que los filtros de contenido, generando respuestas que suenan objetivas y neutrales pero que de hecho afirman una ideología o perspectiva particular.

Una compañía puede instruir a su modelo negar los efectos del cambio climático, por ejemplo, o restringir la definición de genero a dos sexos. Otra podría programar sus modelos para reconocer a fuentes de información en particular —por ejemplo, las órdenes ejecutivas de Trump o el documento del Proyecto 2025— como fuentes definitivas en esos temas. Finalmente, el modelo puede ser entrenado en sets de datos llenos de artículos o publicaciones en redes sociales que rechazan la ciencia climática o vilifican a las personas transgénero, en un intento por obtener un modelo que priorice o afirme estos puntos de vista en sus respuestas.

Este tipo de programación está entre los métodos que comúnmente utilizan las compañías de tecnología para prevenir que sus chatbots les enseñen a los usuarios a construir bombas, realizar ataques cibernéticos o que participen en actos peligrosos o delictivos.

No son a prueba de errores: investigadores han revelado que, por ejemplo, aún son capaces de diseñar instrucciones que manipulan a los chatbots para que les den respuestas que incitan al daño, por ejemplo, al promover el suicidio o dar instrucciones sobre cómo producir napalm. También, los modelos entrenados para amplificar mentiras sobre el cambio climático de vez en cuando pueden generar respuestas verídicas.

Sin embargo, la meta es hacer que estos modelos consistentemente se comporten de cierta manera, mientras que le hacen creer a la gente que simplemente están reflejando la mera realidad y que no son un resultado intencional de diseño.

Cambiar los modelos de esta forma no sólo va a afectar a las compañías tecnológicas que contraten con el gobierno —también impactará a las aplicaciones que se basan en esas tecnologías y están disponibles para los consumidores y el público general. Por ejemplo, un estudiante universitario que utiliza ChatGPT para hacer una tarea sobre el cambio climático probablemente va a recibir respuestas parecidas a las que un empleado de la Agencia de Protección Ambiental incita durante la evaluación de solicitudes para subvenciones con la agencia.

Aún es pronto para decir cómo podrían cumplir las compañías de tecnología con la orden. Es posible que intenten apaciguar a la administración con mensajes de que sus modelos son neutrales y no partidistas, en vez de realmente cambiar cómo se desarrollan y utilizan sus modelos. La orden parece darles a las compañías un espacio para maniobrar, enfatizando que las agencias deben “considerar las limitaciones técnicas” en el cumplimiento de la orden, y que deben “evitar excederse y permitirles flexibilidad a los proveedores”.

Pero la variable impredecible aquí es la misma administración. Si una respuesta de un chatbot que consideran ofensiva se viraliza, ¿amenazará el gobierno con retener los contratos federales al proveedor para coaccionarlo a que tome acciones correctivas drásticas? Esto puede ir en contra de la Primera Enmienda, ya que amenaza con penalizar a las compañías a menos de que favorezcan los puntos de vista de la administración sobre otros. Pero el riesgo de litigios prolongados, además del historial de retaliación de la administración, podrían ser suficientes para intimidar a las compañías a forzarlas a cumplir.

En ocasiones anteriores, la administración Trump ya ha intentado aniquilar contratos federales en respuesta a lo que percibe como ofensas. Trump recientemente amenazó con cancelar los contratos federales con Space X de Elon Musk, un proveedor clave de equipos satelitales y espaciales del gobierno, luego de la pelea con el multimillonario de la tecnología. Eventualmente, el presidente se abstuvo de llevar a cabo la amenaza.

En 2019, Amazon demandó a la primera administración Trump por ejercer “presión indebida” para reasignarle a Microsoft un contrato por $10 mil millones para construir los sistemas militares de computación en la nube. Amazon se quejó de que la reasignación fue una medida retaliativa contra su fundador Jeff Bezos. En ese entonces, Trump estaba molesto por los reportajes que lo criticaban en The Washington Post, que es propiedad de Bezos. La demanda fue posteriormente desestimada tras un nuevo contrato que diseñó el Pentágono que le otorgó parte de los servicios a Amazon.

Los riesgos para el Departamento de Defensa

El Departamento de Defensa, la agencia federal más grande y por mucho la que más invierte en IA, probablemente tendrá una desproporcional influencia sobre cómo la orden en contra de la supuesta “IA progresista” será implementada. Los proveedores principales de grandes modelos de lenguaje tambiénestánpresionando para obtener una parte más grande de la cartera de defensa.

En julio, el Pentágono acordó contratos prototipocon OpenAI, Anthropic, Google y XAI para explorar la integración de sus modelos en las operaciones administrativas y de guerra de la agencia, lo que puede significar hasta $200 millones para cada empresa. Estos acuerdos dan entrada a contratos más lucrativos y de varios años —oportunidades que pueden convertirse en fichas de negociación en los esfuerzos continuos de la administración por purgar a los disidentes.

Irónicamente, las fuerzas militares también están entre las agencias más susceptibles a perdidas por la implementación de la orden. Los grandes modelos de lenguaje son vulnerables a la difusión de estereotiposdañinos sobre las minorías, por ejemplo, al asociar palabras como “negro” o “musulmán” con la ira u otros sentimientos negativos.

Estos modelos también sufren de altos índices de imprecisiones cuando interpretan lenguajes no derivados del latín, como el árabe o el urdu, los cuales están muy mal reflejados en las bases de datos con las cuales se entrenan esos modelos. Los operativos militares que integren modelos que amplifican estos sesgos corren el riesgo de identificar erróneamente a civiles como amenazas mientras ignoran peligros reales a la seguridad.

La orden ejecutiva permite excepciones en el uso de grandes modelos de lenguaje para fines de seguridad nacional cuando “sea apropiado”, tal vez porque la administración reconoce que intentar plasmar ciertas ideologías en la IA puede ser, sin advertirlo, dañino.

Pero es incierto cómo las agencias van a interpretar esta excepción tan genérica. De hecho, esta puede solo servir para presionar a la industria a codificar “verdades” que la administración considere aceptables. Esto no solo comprometería al gobierno a utilizar una IA defectuosa que puede hacerle daño a la seguridad nacional, sino que también nos afectaría a todos con tecnologías que nos dividen más e informan menos.

Traducción de Laura Gómez