Skip Navigation
Análisis

Cómo la inteligencia artificial pone en riesgo las elecciones y las medidas que se requiren para protegernos

Las herramientas de inteligencia artificial, cada vez más populares, podrían propiciar la diseminación desenfrenada de desinformación y crear otros peligros para la democracia.

Última Actualización: Julio 21, 2023
Publicado: Junio 13, 2023

“En mi época”, empezó a decir una voz que apoyaba un enfoque tolerante respecto a la brutalidad policial, “nadie se inmutaba” si un policía mataba a 17 o 18 personas. La voz en el video, que supuestamente era la del candidato a alcalde de Chicago, Paul Vallas, se hizo viral poco antes de las elecciones municipales primarias en las que competían cuatro candidatos.

No fue una metida de pata ni una fuga de información, ni nadie habló sin darse cuenta de que el micrófono estaba prendido. Ni siquiera fue la obra de un astuto imitador que había perfeccionado su versión de Paul Vallas. El video fue una patraña digital vista miles de veces, probablemente creado usando inteligencia artificial generativa, o capaz de generar contenido nuevo como texto, video e imágenes.

El episodio presagia una nueva era en las elecciones. El próximo año traerá por primera vez las campañas electorales con herramientas de inteligencia artificial, que están disponibles prácticamente en todas partes, que permitirán sintetizar la voz de cualquiera, generar imágenes realistas de gente en todo tipo de situaciones y crear robots en redes sociales con la habilidad de conversar casi como un ser humano, todo a gran escala y con una inversión mínima de tiempo y dinero. Debido a la popularidad de los chatbots y los sistemas de búsqueda, que los incorporan rápidamente, también será la primera temporada electoral en la que un gran número de votantes consumirá habitualmente información que no solo es seleccionada sino también producida por inteligencia artificial. 

Este cambio ya está en marcha. En abril, el Comité Republicano Nacional usó inteligencia artificial para producir un video que advierte de crisis potencialmente distópicas durante un segundo periodo del presidente Biden. A principio de este año, un video generado por inteligencia artificial que mostraba a Biden imponiendo el servicio militar obligatorio a nivel nacional para ayudar a Ucrania en la guerra —que inicialmente fue reconocido como ultrafalso (deepfake) pero luego fue sacado de contexto— resultó en un tuit engañoso que fue visto más de 8 millones de veces. También circuló una ultrafalsificación que presentaba a la senadora Elizabeth Warren (D-MA) insistiendo que se debe prohibir el voto a los republicanos en 2024.

En el futuro, sujetos malintencionados podrían utilizar la inteligencia artificial generativa con el propósito de suprimir el voto o eludir las medidas para proteger las elecciones. 

El desafío de la inteligencia artificial en las elecciones no se limita a la desinformación ni a la mala conducta deliberada. Muchas oficinas electorales usan sistemas algorítmicos para mantener sus bases de datos de inscripción de votantes y verificar la firma de las boletas enviadas por correo, entre otras labores. Al igual que las decisiones humanas sobre estos asuntos, en la toma de decisiones con algoritmos existe la posibilidad de racismo y de otros tipos de prejuicios. Entre algunos funcionarios, hay cada vez más interés en usar la inteligencia artificial generativa para que los ayude a informar a los votantes, lo que crea la oportunidad de acelerar procesos, pero también de generar un gran riesgo de comunicarse con los votantes sin precisión ni equidad.

Los avances en inteligencia artificial han suscitado inquietud generalizada entre el público y la clase política; sin embargo, el impacto electoral de la inteligencia artificial ha recibido relativamente poco escrutinio, a pesar del enorme riesgo que implica. Este análisis se centra en el riesgo de desinformación en 2024. Análisis futuros por el Brennan Center examinarán otros riesgos, entre ellos la supresión del voto, la seguridad de las elecciones y el uso de inteligencia artificial en la administración de elecciones.

Inteligencia artificial desde las elecciones de 2022 

Si bien la inteligencia artificial tiene desde hace años la capacidad de generar retratos ultrafalsos con calidad de foto de personas que no existen, la tecnología ha progresado tanto en meses recientes que los usuarios pueden crear imágenes que parecen reales de prácticamente todo con apenas una orden escrita. Los expertos usan Photoshop desde hace tiempo para editar imágenes, pero ahora un enorme número de personas pueden crear imágenes convincentes de la nada en cuestión de segundos a un costo bajo o gratis. De manera similar, el audio ultrafalso ha avanzado mucho y ahora puede imitar la voz de las personas con mínima capacitación de los modelos de inteligencia artificial. 

Si bien los precursores de la muy popular aplicación ChatGPT existen desde hace tiempo, la más reciente versión de OpenAI ha llegado mucho más lejos en términos de popularidad y capacidad. Las aplicaciones como ChatGPT se basan en enormes modelos de lenguaje, que son sistemas para codificar palabras como colecciones de números que reflejan su uso en grandes porciones del internet, seleccionadas para el entrenamiento de la aplicación. El 30 de noviembre de 2022 se lanzó ChatGPT, a pocas semanas de las elecciones de mitad de periodo de 2022. Su lanzamiento precipitó una nueva era en que las personas conversan frecuentemente con sistemas de inteligencia artificial y leen contenido producido por inteligencia artificial. 

Desde el estreno de ChatGPT, todo nuestro ecosistema de información ha empezado a cobrar nueva forma. Los buscadores incorporan este tipo de tecnología para proporcionarles a los usuarios información en formato conversacional, y algunos sitios de noticias vienen usando la inteligencia artificial para producir artículos de manera más económica y rápida, a pesar de su tendencia a producir información errónea. Las réplicas más pequeñas (por ahora) de ChatGPT y sus precursores no se limitan a los titanes tecnológicos de Estados Unidos. Por ejemplo, China y Rusia tienen su propia versión. Y los investigadores han encontrado maneras de entrenar modelos pequeños con el producto creado por modelos grandes y lograr un desempeño casi igual que permite que la gente en todo el mundo opere versiones personalizadas con computadoras portátiles personales.

Vulnerabilidad particular a la desinformación 

Las elecciones son particularmente vulnerables a la desinformación impulsada por la inteligencia artificial. Las herramientas de inteligencia artificial generativa son más eficaces cuando producen contenido que se parece al de las bases de datos de su capacitación. Ya que las mismas narrativas falsas surgen repetidamente en las elecciones estadounidenses —los negacionistas electorales no reinventan la rueda, como han detectado los estudios del Brennan Center y otros analistas— hay abundante desinformación sobre elecciones pasadas en los datos de capacitación que respaldan las actuales herramientas de inteligencia artificial generativa para convertirlas en posibles bombas de tiempo para desinformación electoral futura. 

 Esto incluye las principales mentiras sobre la seguridad de las máquinas electorales y la votación por correo, además de los temas recurrentes de información errónea que se aplican con regularidad a fallas inocentes y de rápida resolución que suceden en la mayoría de las elecciones. La información errónea visual también es muy común, como por ejemplo, las fotos de boletas desechadas de votación por correo que se usaron para distorsionar los informes sobre las elecciones en 2020 y 2022. 

Los diversos tipos de herramientas de inteligencia artificial dejarán distintas huellas en elecciones futuras y atentarán contra la democracia de maneras muy variadas. Las imágenes, las grabaciones y los videos ultrafalsos podrían producir un incremento de momentos virales sobre escándalos falsos o fallas artificiales, distorsionando incluso más el diálogo cívico del país durante las elecciones. Al publicar millones de mensajes en internet, los malhechores podrían usar modelos de lenguaje para crear la ilusión de unanimidad política o la impresión engañosa de que la creencia en narrativas electorales falsas es extensa.

Las campañas de influencia podrían usar chatbots adaptados para personalizar las interacciones en base a las características de los votantes y adaptar tácticas de manipulación en tiempo real a fin de aumentar su capacidad de persuasión. Además, podrían usar herramientas de inteligencia artificial para enviar una ola de comentarios engañosos, supuestamente, de “ciudadanos” a las oficinas de elecciones, como lo mostró el investigador que engañó a funcionarios estatales de Idaho en 2019 usando la tecnología previa a ChatGPT. Los chatbots y las grabaciones ultrafalsas también podrían agudizar las amenazas contra los sistemas electorales por medio de esfuerzos personalizados, convincentes y probablemente más eficaces de los vistos para adquirir información personal como “phishing”.

No es necesario buscar mucho para ver el potencial de la inteligencia artificial para distorsionar el diálogo político en el mundo: un video ultrafalso viral que mostró al presidente Volodimir Zelenski de Ucrania rindiéndose a Rusia; robots pro-China que comparten videos de presentadores de noticias generados por inteligencia artificial en un medio simulado, llamado “Wolf News”, que promueven mentiras que enaltecen el régimen chino y critican a Estados Unidos, en el primer ejemplo conocido de una campaña alineada con un país a fin de movilizar herramientas de inteligencia artificial para crear personas ficticias.

ChatGPT4 respondió a una solicitud de investigadores de escribir un mensaje para una campaña de información al estilo soviético que indica que el VIH, que causa el sida, fue creado por el gobierno de Estados Unidos. Incidentes como estos podrían proliferar en 2024.

Herramientas de desinformación enormemente optimizadas 

En 2016, entidades afiliadas al gobierno ruso contaban con cientos de empleados y un presupuesto mensual de millones de dólares para librar una guerra de información en un intento por ejercer influencia en las elecciones presidenciales de Estados Unidos. Hoy en día, gracias a la inteligencia artificial generativa, se podría poner en práctica un esfuerzo similar —o incluso a mayor escala— con una fracción del personal y del costo. Las futuras campañas de influencia de los afiliados a un gobierno podrían eliminar a muchos intermediarios y depender de sistemas más automatizados.

Además, las herramientas de inteligencia podrían aumentar el poder de persuasión de campañas de desinformación a gran escala al combinar mejor las mentiras con los entornos de información de los destinatarios y explotar la identidad racial, religiosa y política de los votantes de manera generalizada.

Antes era fácil identificar las campañas de influencia respaldadas por Rusia, debido a sus obvios errores y tropezones, pero las herramientas recientes de inteligencia artificial podrían limitar dichas fallas al eliminar o mitigar los elementos visuales con problemas, malas traducciones, faltas gramaticales y expresiones idiomáticas equivocadas de manera que el contenido engañoso no sea motivo de sospecha.

Es posible que las conversaciones automatizadas con votantes que tienen como propósito engañarlos se multipliquen infinitamente con un modelo perfeccionado. Además, como el Poynter Institute ha demostrado, las aplicaciones tipo ChatGPT pueden facilitar la información errónea en sitios webs llenos de noticias falsas, un riesgo específico cuando se hacen pasar por noticias locales en “desiertos periodísticos”, de condados sin un periódico local donde viven millones de personas que pueden votar

Al mismo tiempo, los votantes que interactúan con modelos de lenguaje en sistemas de búsqueda y por medio de chatbots probablemente se topen con información errónea involuntariamente, ya que se sabe que estas herramientas “tienen alucinaciones” de vez en cuando e incluso fabrican anotaciones que parecen fidedignas, con enlaces a artículos que no existen, para respaldar afirmaciones falsas. 

Fiabilidad en la información sobre elecciones 

El presidente de Gabón en África central viajó al extranjero durante varios meses en 2018 para recibir atención médica. En su país, su ausencia prolongada produjo confusión y fomentó la conspiración.

Cuando el gobierno de Gabón sacó un video para probar que el presidente estaba vivo, sus opositores afirmaron que era una falsificación digital. A pesar de que era probable que el video era auténtico, la posibilidad de crear falsificaciones realistas hizo la afirmación factible y generó confusión. Esto es lo que se conoce como el “dividendo del mentiroso”: la simple existencia de la inteligencia artificial generativa crea una atmósfera de desconfianza. El dividendo está por aumentar considerablemente.

Más allá de las mentiras absolutas, la proliferación de contenido generado por inteligencia artificial podría hacer que se pierda la confianza más rápidamente en el ecosistema de información electoral, en general. En el futuro, los votantes visitarán entornos cibernéticos que quizá tengan imágenes y videos virales manipulados, además de texto generado por inteligencia artificial.

El uso generalizado de tecnología generativa podría crear una nube de confusión que dificulte distinguir entre lo verdadero y lo falso, un objetivo expreso del modelo de propaganda de “Alud de mentiras” de Rusia. Eso, a su vez, podría erosionar la confianza en la información electoral de manera más amplia, lo que dificultaría que los votantes tengan fe en toda fuente de información electoral, incluidas las exactas y fidedignas. Por ejemplo, el contenido que imita a funcionarios electorales podría llevar a que los funcionarios en sí pierdan la credibilidad de la que mayormente disfrutan.

Vías para proteger las elecciones 

Los estadounidenses necesitamos medidas para proteger las elecciones de los diferentes riesgos que conlleva la tecnología de inteligencia artificial. Incluimos apenas unas cuantas medidas que se deben considerar como parte de una respuesta integral por el gobierno, la sociedad civil y el sector privado ante las amenazas que la inteligencia artificial representa para las elecciones y la democracia.

Si bien defender la democracia contra el daño de la inteligencia artificial exigirá una campaña interinstitucional, el poder ejecutivo debe designar a una agencia para que se encargue de coordinar el manejo de los asuntos de inteligencia artificial en las elecciones. En el frente de la desinformación, la Agencia de Seguridad e Infraestructura Cibernética (Cybersecurity and Infrastructure Security Agency) debe crear y compartir recursos para ayudar a las autoridades electorales a combatir las campañas de desinformación que se aprovechan de las herramientas ultrafalsas y los modelos de lenguaje para socavar el proceso electoral. 

Para disminuir el riesgo del uso indebido de la inteligencia artificial en campañas políticas, la Comisión Federal de Elecciones (Federal Election Commission) debe asegurar que sus requisitos de divulgación sobre anuncios políticos abarquen todos los diversos tipos de comunicados en internet que las leyes federales permiten en este momento. Eso conlleva cerciorarse de que sus normas incluyan los comunicados políticos de influencers pagados, quienes pueden diseminar contenido generado por inteligencia artificial, y la promoción de contenido pagado en internet, que también puede usarla. 

El gobierno federal debe intensificar sus esfuerzos para promover y fomentar la innovación en la detección del contenido ultrafalso y el progreso en la detección de campañas de desinformación y amenazas para la seguridad cibernéticas propiciadas por modelos de lenguaje y chatbots, lo que debe incluir a la Agencia de Defensa con Proyectos de Investigación Avanzada (Defense Advanced Research Projects Agency) y el nuevo Instituto de Inteligencia Artificial para Inteligencia y Operación sobre Amenazas Cibernéticas por Agentes (AI Institute for Agent-based Cyber Threat Intelligence and Operation). Entre las posibles medidas debe estar la creación de herramientas eficientes de detección y contra phishing para que las usen las oficinas estatales y municipales de elecciones. En la carrera armamentista entre las herramientas de inteligencia artificial que pueden generar desinformación y las que detectan con exactitud el contenido generado por la inteligencia artificial, el gobierno puede ayudar a impulsar los esfuerzos de detección —incluidos aquellos centrados en campañas coordinadas de robots— para aumentar su eficacia.

Los creadores de inteligencia artificial y las empresas de redes sociales tienen que asumir un rol en la mitigación de atentados contra la democracia. Entre otros pasos, los creadores de inteligencia artificial deben implementar y refinar continuamente los filtros contra falsedades electorales e imponer límites en interfaces para dificultar la creación de campañas de desinformación a gran escala.

Las compañías de redes sociales deben formular medidas de política que reduzcan los efectos nocivos del contenido generado por inteligencia artificial y a la vez aseguren que el discurso legítimo continúe. Deben verificar públicamente las cuentas de funcionarios electorales y otras fuentes fidedignas de información electoral, como la Asociación Nacional de Secretarios de Estado (National Association of Secretaries of State), que usan íconos exclusivos. (La etiqueta gris gratuita de verificación de Twitter para cuentas del gobierno no abarca claramente a las oficinas municipales de elecciones, por ejemplo).

Las plataformas deben dedicar más recursos y atención a identificar y eliminar robots coordinados y señalar los contenidos ultrafalsos que podrían influir en las elecciones. Deben coordinar esfuerzos estrechamente con creadores de inteligencia artificial para mejorar continuamente las prácticas de detección, a la par que evoluciona la capacidad de la inteligencia artificial generativa.

Finalmente, el Congreso y las legislaturas estatales deben actuar pronto para reglamentar la inteligencia artificial. Si bien el proceso de fijar la manera más prudente de proceder requerirá mayor diálogo y refinación, está claro que los legisladores no pueden darse el lujo de perder el tiempo ni permitir enredarse en pleitos entre partidos. Hay demasiado en juego. 

Entre las opciones que ameritan deliberación y debate están exigir que se usen marcas de agua y firmas digitales para ayudar a identificar el contenido generado por inteligencia artificial, requerir que las empresas prueben que sus productos son seguros antes de lanzarlos al público y limitar la creación y trasmisión del contenido más nocivo generado por inteligencia artificial que puede interferir con las elecciones.

Las herramientas de inteligencia artificial generativa con código totalmente público —y que en consecuencia se puede descargar y manipular— representan retos únicos, ya que los usuarios pueden eliminar las medidas de protección y operar estos modelos sin moderación ni escrutinio. Pero un gran número de usuarios seguirán dependiendo de aplicaciones de inteligencia artificial patentada que ofrecen las firmas tecnológicas, por lo que la reglamentación dirigida al desarrollo e implementación de dichas aplicaciones en el sector privado tendrá un impacto enorme a pesar de las alternativas de uso público.

Los votantes necesitan cierto nivel de transparencia al promover el uso seguro de inteligencia artificial respecto a las elecciones. Los legisladores pueden forzar a los creadores de inteligencia artificial a publicar las categorías de datos y principios que los guían para perfeccionar los modelos de inteligencia artificial generativa; pueden exigir la evaluación del impacto algorítmico para sistemas de inteligencia artificial utilizados en los entornos de gobernación; pueden imponer auditorías periódicas por terceros de los sistemas de inteligencia artificial que se usan para administrar las elecciones y pueden requerir que las oficinas electorales divulguen detalles sobre su uso de sistemas de inteligencia artificial en el manejo de los comicios.

Además, el Congreso debe exigir exoneraciones de responsabilidad que indiquen quién paga y otros tipos de divulgación para una variedad mucho más extensa de anuncios en internet de los que las leyes actualmente exigen.

Si bien el proyecto de ley de anuncios honestos, Honest Ads Act ante el Senado, lograría esto en parte, es posible mejorarla al exigir que se revele información sobre la función de la inteligencia artificial para generar ciertos tipos de comunicados políticos. Estas medidas podrían ayudar a los votantes a tomar decisiones informadas y mitigar los riesgos del uso de la inteligencia artificial en entornos electorales. 

Se debe reglamentar estrictamente todo uso por el gobierno de inteligencia artificial generativa para ayudar a informar a los votantes o interactuar con ellos en las elecciones. También debemos expandir estos esfuerzos al extranjero, para apoyar una respuesta mundial coordinada. La inteligencia artificial puede cambiar las elecciones drásticamente y atentar contra la democracia. Se necesita una respuesta de parte de toda la sociedad. 

Traducción de Keynotes Translations and Editorial Services