Skip Navigation
Análisis

Los peligros de los contenidos ultrafalsos para la democracia

El gobierno necesita aumentar los esfuerzos para proteger las elecciones de videos y audios ultrafalsos generados por la IA.

Abril 1, 2024
Dissolving Pixelated Face
Maksim Tkachenko/Getty

Suscríbete aquí al nuevo boletín informativo del Brennan Center en español  

Hay algo tenebroso en línea que involucra a Kari Lake—y no es lo que usted esperaría. 

El portal periodístico sin fines de lucro Arizona Agenda publicó un video de un minuto en el cual la antes presentadora de noticias de televisión y actual candidata republicana elogió el trabajo del portal… y luego, a la mitad del video, revela que todo es un video ultrafalsoEl video está disponible clic aquí. Míralo, en especial, en tu teléfono donde las fallas son menos obvias. Esto es nuevo, desconcertante y de mal agüero.

Ya han pasado casi dos años desde que se lanzó ChatGPT y el mundo empezó a debatir qué tantos cambios podría traer el avance de la inteligencia artificial generativa.

¿Son como la Biblia de Gutenberg que se hizo posible gracias a la nueva tecnología de la imprenta? ¿O son tan solo otra tecno moda pasajera, más en boga que algo con impacto real? En los próximos años todo esto se esclarecerá y habrá repercusiones masivas en nuestro trabajo, sistema de salud y en nuestras vidas. (Una garantía: esto fue escrito por una persona real).  

Cuando de las elecciones se trata, es cada vez más claro que la nueva amenaza más grande en el 2024 se deriva del impacto que tiene la IA en nuestro ecosistema informativo, que incluye los contenidos ultrafalsos como el video protagonizado por “Kari Lake”.

(La verdadera Lake, mientras tanto, le envió una carta de cese y desistimiento al portal). Ese riesgo es especialmente alto cuando se trata de audios, los cuales son más fáciles de manipular que las imágenes visuales, además es más difícil detectar que son falsas. 

El año pasado, la elección presidencial eslovaca pudo haber cambiado de curso por un audio falso del candidato líder que se viralizó días antes de la votación. 

En New Hampshire, llamadas automatizadas falsas de “Joe Biden” instaban a los votantes a no participar en las primarias. En la elección por la alcaldía de Chicago, una grabación falsa supuestamente presentaba a un candidato reflexionando que: “En mi época, nadie se inmutaba” si un oficial de policía mataba a 17 o 18 personas.

El riesgo de audios y videos manipulados hace más difícil precisar qué es real. Donald Trump ha tachado de falso a cualquier video que lo haga ver mal. 

En el Brennan Center, nos preocupa en especial cómo todo esto puede afectar la maquinaria de la administración electoral. 

Recientemente realizamos un “ejercicio de simulación” con el secretario de estado de Arizona Adrian Fontes, uno de los servidores públicos más eficientes del país, y otros oficiales electorales en el estado. Se incorporaron videos ultrafalsos similares protagonizados por Fontes, creados con fines educativos y de capacitación. La verosimilitud fue tan perturbadora que las grabaciones rápidamente fueron guardadas bajo llave. 

Este fue un escenario que pusimos a prueba: usted es un oficial local de elecciones. Es un ajetreado día de elecciones y le entra una llamada del secretario de estado. “Ha habido una orden de la corte”, dice con urgencia. “Necesitas cerrar una hora antes”. Cuando los trabajadores locales reciben una llamada como esa, deben respirar profundo y devolverle la llamada al secretario de estado. Rápidamente se darán cuenta que la llamada en realidad era ultrafalsa. Ese es el simple proceso que podría detectar un fraude antes de que prospere.  

El gobierno puede tomar otras medidas, también. Hemos planteado varias de ellas en una serie de ensayos en colaboración con el Centro para la Seguridad y Tecnología Emergente de la Universidad de Georgetown. A menudo las autoridades necesitan tomar medidas que sean sensatas para protegernos de ciberataques y otros desafíos. 

Hay más que se tiene que hacer. Un buen paso es etiquetar al contenido generado por IA con un sello de agua, así dejando en claro que se utilizó IA para crear o alterar una imagen.

Meta (alias Facebook) se enorgulleció al revelar dicho sistema para etiquetar todo contenido creado por herramientas de IA de las principales empresas como OpenAI, Google y Adobe. Mi colega Larry Norden trabajó junto a un experto en software y mostró qué tan fácil es borrar los sellos de agua de estas imágenes y eludir la estrategia de etiqueta de Meta. Les tomó menos de 30 segundos. 

Por lo tanto, el gobierno necesitará tomar medidas adicionales. La senadora demócrata Amy Klobuchar de Minnesota, quien es una líder en seguridad electoral, está trabajando con la senadora republicana Lisa Murkowski de Alaska y otros para redactar un proyecto de ley que requiera a las campañas políticas incluir un aviso en su publicidad si estas usan sustancialmente IA generativa.

Esto requiere sutileza, ya que las cortes serán cautelosas por preocupaciones sobre las libertades de la Primera Enmienda. Pero sí se puede hacer. Una reforma como esta es imperativa ahora. 

Después de todo, como expresa tan bien el video ultrafalso de Kari Lake, “Para cuando las votaciones de noviembre estén a la vuelta de la esquina, a duras penas podrás distinguir entre la realidad y la inteligencia artificial”. Eso es… inteligente. 

Traducción de Laura Gómez