Skip Navigation
Recurso

Cómo reglamentar los contenidos ultrafalsos en la política

Las personas a cargo de formular políticas deben evitar que los contenidos manipulados se utilicen para socavar las elecciones y privar al electorado de su derecho al voto.

Publicado: Diciembre 19, 2023
AI and Democracy
Chris Burnett
Ver la serie entera La inteligencia artificial y la democracia

Es probable que los primeros años de la década de 2020 sean recordados como el comienzo de la era de los contenidos ultrafalsos, o deepfake, en el contexto de las elecciones.

La inteligencia artificial (IA) generativa tiene ahora la capacidad de imitar a líderes políticos electos y otras figuras públicas de un modo muy convincente. Las herramientas de IA pueden sintetizar contenidos de audio con la voz de cualquier persona y generar imágenes y videos realistas de casi todo el mundo haciendo lo que sea, contenidos que luego se pueden distribuir a gran escala mediante otras herramientas de IA, como los chatbots.

La proliferación de contenidos sintéticos (los creados o modificados a través de la inteligencia artificial y otros medios automatizados) como son los ultrafalsos y otros similares, plantea retos muy particulares para el funcionamiento de las democracias, porque este tipo de comunicaciones puede privar al público de la información precisa que necesita para tomar decisiones informadas durante las elecciones.

Durante los últimos meses, se han utilizado contenidos ultrafalsos en repetidas ocasiones para engañar al público sobre ciertas declaraciones y medidas que han realizado algunos líderes políticos. Estos contenidos engañosos pueden ser particularmente amenazantes durante el período previo a una elección, cuando hay poco tiempo para desacreditarlos antes de que se difundan y el electorado acuda a las urnas.

Para citar un ejemplo, en unas grabaciones de audio ultrafalsas unos pocos días antes de las elecciones de Eslovaquia en octubre de 2023, Michal Šimečka, líder del partido Eslovaquia Progresista que favorece vínculos con Europa y Norteamérica, supuestamente dijo que iba a manipular los resultados de las elecciones y duplicar el precio de la cerveza. Estas grabaciones ultrafalsas se hicieron virales en las redes sociales.

Otros audios ultrafalsos que circularon poco antes de las elecciones contenían descargos de responsabilidad, o “disclaimers”, que advertían que habían sido generados por IA, pero estos descargos solo aparecían luego de los primeros 15 segundos en clips de audio que duraban 20 segundos. Al menos un investigador ha afirmado que colocar estos descargos de responsabilidad tan adentrado el contenido fue un intento deliberado de engañar al público.

El partido político de Šimečka terminó perdiendo una elección muy reñida, donde ganó su opositor, que favorece vínculos con Rusia, y algunos analistas especularon que estos contenidos ultrafalsos que circularon tan cerca de las elecciones afectaron el voto final.

En los Estados Unidos, aún falta un año para las elecciones de 2024, pero hay candidatos del Partido Republicano que ya están utilizando IA en sus publicidades de campaña.

El caso más notorio lo protagonizó el gobernador de Florida Ron DeSantis cuando su campaña publicó imágenes generadas por IA del expresidente Donald Trump abrazando a Anthony Fauci, quien se ha convertido en el mayor objetivo de críticas entre votantes del partido republicano durante las primarias por las políticas de mitigación de covid-19 que promovió Fauci. 

Dada la velocidad sorprendente con la que se han desarrollado contenidos ultrafalsos y otros contenidos sintéticos (es decir, aquellos que se crean o modifican a través de medios automatizados, como la IA) durante tan solo el último año, podemos prever la aparición de aún más comunicaciones engañosas sofisticadas en las contiendas políticas durante los meses y años venideros. 

Como respuesta a esta amenaza que no para de evolucionar, congresistas y legisladores estatales de todo el país ya han propuesto leyes para reglamentar la IA. 

Al momento de publicación de este informe, un grupo de congresistas de los dos partidos políticos han presentado por lo menos cuatro proyectos de ley que abordan el uso de contenidos ultrafalsos y otros contenidos manipulados específicamente en las elecciones federales, y al menos otros cuatro que lo abordan en términos más generales. 

A nivel estatal, se han aprobado leyes nuevas que prohíben o restringen de alguna otra forma los contenidos ultrafalsos y otros contenidos engañosos utilizados en publicidades electorales y anuncios políticos durante las elecciones en estados tan diversos ideológicamente como CaliforniaMinnesotaTexasWashington

Es posible que las entidades reguladoras estatales y federales también tomen medidas. Hace poco, por ejemplo, el grupo de defensa de derechos civiles Public Citizen presentó una petición ante la Comisión Federal de Elecciones (FEC) para que enmienden sus reglamentaciones y se prohíba el uso de contenidos ultrafalsos por parte de candidatos en determinadas circunstancias. 

Sin embargo, aun si las personas encargadas de formular políticas trabajan para actualizar leyes y reglamentaciones de cara a la aparición de una clase nueva y más avanzada de contenidos manipulados, también deben ser conscientes de una serie de consideraciones de contrapeso. 

La más importante de estas consideraciones es que los contenidos manipulados, en ocasiones, pueden desempeñar una función legítima, real y no de carácter engañoso, como cuando se crean contenidos satíricos, artísticos o de análisis político. Estas formas de expresión poseen valor inherente y, en los Estados Unidos, gozan de una protección jurídica importante según la primera enmienda de lal constitución. 

La ley federal especifica que hasta el engaño más descarado que no tenga valor artístico que lo justifique ni cualquier otro propósito legítimo, aunque suele gozar de una menor protección constitucional, no puede prohibirse simplemente porque sí. El gobierno igual debe proporcionar una justificación independiente cuando intente imponer alguna restricción y demostrar que esa restricción ha sido confeccionada a cabalidad según su objetivo establecido. 

Estas limitaciones no son razón suficiente como para rehuir la obligación de promulgar nuevas reglas sobre contenidos manipulados, sino que, cuando se las elabore, las personas a cargo deben asegurarse de tener objetivos claros y bien articulados. Además, deben confeccionar las nuevas reglas con detenimiento para cumplir con esos objetivos sin restringir indebidamente otras formas de expresión. 

La primera parte de este recurso informativo define los términos “contenido ultrafalso, o deepfake”, “contenido sintético” y “contenido manipulado” en más detalle. La segunda parte presenta algunas consideraciones necesarias para quienes formulan políticas, a saber: 

  • Los argumentos más convincentes que justifican la reglamentación de contenidos ultrafalsos y otros contenidos manipulados en el mundo de la política. En general, la necesidad de propiciar un electorado informado y de salvaguardar la integridad global del proceso electoral son dos de los argumentos más convincentes que justifican la regulación de contenidos manipulados en la esfera política.
  • El tipo de comunicaciones que deberían regularse. Las regulaciones deberían aplicarse tanto a las imágenes y audios, como a los videos sintéticos. Las personas a cargo de confeccionar las reglas deben concentrarse en restringir o limitar de alguna otra manera toda representación de acontecimientos o declaraciones que, en realidad, no ocurrieron, en especial cuando aparecen en anuncios pagos de campañas políticas y otras categorías determinadas de publicidad paga u otros tipos de comunicaciones de amplia difusión. Todas las reglas nuevas deberían tener exclusiones claras para los contenidos paródicos, las noticias y posiblemente otras formas de expresión protegidas.
  • Cómo se deberían reglamentar esos contenidos. Las reglas de transparencia —que, por ejemplo, exigen que se coloque con claridad alguna marca identificando el contenido como artificial en toda imagen o grabación de audio manipulada para que no se entienda como la representación de un hecho real— serán, por lo general, las más fáciles de justificar en los tribunales de justicia. Pero no siempre bastará la transparencia; quienes elaboran las leyes también deben considerar la posibilidad de prohibir por completo ciertas categorías de contenidos manipulados, tales como materiales de audio y video que buscan engañar a la población sobre cuándo, dónde y cómo votar.
  • A quiénes deberían dirigirse esas regulaciones. Tanto las prohibiciones como los requisitos de transparencia menos restrictivos deben estar dirigidos principalmente a quienes crean o distribuyen contenidos engañosos, aunque también puede tener sentido regular a las plataformas donde se transmiten esos contenidos ultrafalsos.

¿Qué son los contenidos ultrafalsos, o deepfake, los contenidos sintéticos y otros contenidos manipulados?

El término ultrafalso, o deepfake, se refiere a todo contenido de video, audio o imagen donde aparezca una persona real o ficticia o se oiga su voz generada o considerablemente manipulada mediante métodos de deep learning, o aprendizaje profundo, un subconjunto de machine learning, o aprendizaje automático, en el que se basan muchas aplicaciones de inteligencia artificial (IA). 

Los últimos avances tecnológicos han permitido crear contenidos ultrafalsos cada vez más sofisticados que ahora pueden imitar las voces y los gestos faciales de figuras públicas destacadas y de cualquier otra persona con una precisión alarmante. Los contenidos ultrafalsos son un tipo de los contenidos sintéticos y manipulados que abarcan todo tipo de cosas, como contenidos modificados con herramientas más básicas como Photoshop o software de doblaje de voz. 

Este recurso informativo se centra en los contenidos sintéticos y otros contenidos manipulados que transmiten acontecimientos, audios o comportamientos que no ocurrieron en la realidad o que muestran a personas que no existen, de modo tal que sean convincentes para un público razonable. 

Tal como lo señala un informe reciente publicado por RAND Corporation, las nuevas tecnologías permiten crear y difundir contenidos sintéticos como los ultrafalsos con más facilidad y sin grandes costos. Muchas compañías desarrolladoras ahora ofrecen herramientas que cualquier persona promedio puede utilizar para generar contenidos convincentes con tan solo un breve clip de video o audio de una persona real. 

Un profesor pudo crear un video ultrafalso de sí mismo en ocho minutos y con tan solo $11. Estas tecnologías se harán cada vez más económicas y más accesibles. Mientras tanto, las herramientas que permiten generar una imagen a partir de texto se están volviendo cada vez más sofisticadas y más accesibles para todo el mundo. Esta mayor eficiencia, combinada con la amplia disponibilidad de estas herramientas, amenaza con debilitar la capacidad del electorado de distinguir la realidad de la ficción al momento de decidir si desea participar en los procesos democráticos y cómo hacerlo. 

Consideraciones urgentes a la hora de formular políticas

Cuando se evalúe cómo regular los contenidos ultrafalsos generados por IA y otros contenidos manipulados, el Congreso, las legislaturas y los entes reguladores deben considerar las siguientes preguntas: ¿Cuál es el objetivo general de la regulación? ¿Qué tipo de comportamientos deberían incluirse? ¿Cómo se deberían regular estos comportamientos? Y, por último, ¿a quiénes se debería incluir? Es decir, ¿la reglamentación debería estar dirigida solo a quienes crean o difunden contenidos ultrafalsos generados por IA o también a las plataformas de internet o de otro tipo que facilitan su distribución?

Propiciar un electorado informado. Uno de los argumentos más convincentes a favor de la reglamentación de contenidos ultrafalsos generados por IA y otros contenidos manipulados es la necesidad de prevenir o, al menos, mitigar los efectos nocivos de la publicidad engañosa y otras comunicaciones similares en el contexto de las campañas políticas que están claramente diseñadas para influenciar el voto de la población. 

Sin lugar a duda, las representaciones ultrafalsas de candidatos, otras personas o acontecimientos que se utilizan en anuncios de campaña y otras comunicaciones similares amenazan el interés público central de contar con un electorado informado. Desde hace mucho tiempo, ese interés ha justificado la formulación de varias reglas de transparencia que exigen a quienes distribuyen anuncios de campaña revelar la identidad y las fuentes de financiamiento. 

Por lo tanto, es casi seguro que ese interés también justifique los requisitos de marcar todo contenido ultrafalso en este tipo de anuncios. Además, dado que muchos contenidos ultrafalsos, a diferencia de otras formas de expresión política, son intrínsicamente engañosos y, por lo tanto, se les adjudica menos protección constitucional, se pueden presentar excelentes argumentos a favor de la prohibición absoluta de, al menos, un subgrupo de ellos, tales como contenidos ultrafalsos distribuidos por candidatos donde aparecen sus opositores.

Salvaguardar el proceso electoral. También existen muchos argumentos sólidos a favor de la regulación de imágenes y audios engañosos que buscan privarle al electorado de su derecho al voto o socavar la integridad del proceso electoral. La reglamentación debería centrarse, como mínimo, en las comunicaciones que buscan engañar al electorado a propósito sobre cuándo, dónde y cómo votar, y en los mensajes diseñados para sembrar la duda sobre la legitimidad de un resultado electoral, alegando fraude u otras fuentes de ilegitimidad que, en realidad, nunca ocurrieron. 

Muchas tácticas de intimidación y engaño a votantes ya son ilegales. Tal como el Congreso y las legislaturas ya lo han reconocido, estas tácticas pueden ser tan efectivas como si se le negara a alguien rotundamente el acceso a una cabina de votación. 

Si bien este problema apareció mucho antes de la llegada de las herramientas sofisticadas de IA, los contenidos ultrafalsos y las imágenes y audios sintéticos que imitan a autoridades electorales u otras fuentes confiables para difundir información falsa pueden potenciar sobremanera las campañas que buscan engañar al electorado. Estas comunicaciones tienen muy poco valor justificativo (o ninguno) y un gran potencial de causar daños importantes, lo cual probablemente justifique su prohibición. 

Los contenidos ultrafalsos y otros similares que atacan la integridad del proceso electoral cuando buscan mostrar instancias falsas de fraude y otras actividades ilegítimas también son una amenaza considerable. Las alegaciones falsas de fraude no solo debilitan la confianza en nuestras elecciones, sino que también avivan cada vez más la violencia relacionada con las elecciones, tal como ocurrió durante el ataque del 6 de enero de 2021 contra el Capitolio federal, que fue parte de un plan más amplio cuyo objetivo era invalidar los resultados de las elecciones presidenciales de 2020.

Estas mentiras siguen siendo una fuerza potente en la política estadounidense, ya que ayudan a sustentar un amplio movimiento negacionista de elecciones que ha querido intimidar a votantes y autoridades electorales y, con cada vez más frecuencia, infiltrarse en las oficinas electorales y ganar control sobre la maquinaria electoral. Los contenidos ultrafalsos sofisticados generados por IA tienen la capacidad de potenciar al máximo las teorías conspirativas ya muy extendidas. 

La necesidad de sembrar confianza en las elecciones y prevenir actos de violencia electoral justifica con firmeza los requisitos de marcar este tipo de contenidos y otros requisitos de transparencia, como mínimo, y hasta posiblemente su prohibición absoluta. 

Proteger a candidatos y autoridades electorales. También pueden demostrarse argumentos a favor de la implementación de restricciones más amplias sobre los contenidos ultrafalsos y materiales similares que muestran a candidatos, autoridades y trabajadores electorales con la intención de intimidarles, amenazarles o difamarles. 

Se podría considerar a la mayoría de candidatos y candidatas como figuras públicas que, al presentarse para las elecciones, han sacrificado, por voluntad propia, algunas de las protecciones de reputación de las que goza el resto de la ciudadanía. Pero este sacrificio no es absoluto. 

Por ejemplo, la Corte Suprema ha dictaminado, desde bastante tiempo, que la difusión de falsedades sobre una figura pública con “intención realmente maliciosa” puede dar lugar a una responsabilidad penal según las leyes de difamación e injuria. Presentarse a elecciones ya es una tarea difícil; los candidatos que provienen de contextos tradicionalmente desfavorecidos enfrentan obstáculos dispares como, por ejemplo, una mayor probabilidad de recibir amenazas y otras formas de abuso en las redes. La distribución de contenidos ultrafalsos sofisticados por internet amenaza con exacerbar este problema. 

A diferencia de lo que ocurre con las personas candidatas a elecciones, muchos trabajadores electorales que han sufrido ataques despiadados no son personalidades públicas, como las trabajadoras electorales de Georgia que el abogado de Trump Rudy Giuliani atacó como parte del plan de revertir los resultados de las elecciones de 2020. 

Las autoridades y trabajadores electorales locales ya enfrentan un gran número de retos, entre ellos, el miedo cada vez más mayor de ser objeto de amenazas, intimidación y hasta de violencia manifiesta, avivadas por el movimiento negacionista de elecciones. Los contenidos ultrafalsos también podrían empeorar un problema que ya era grave. 

Sin embargo, más allá de los motivos convincentes de proteger de amenazas y falsedades maliciosas en general a candidatos, candidatas, autoridades y trabajadores electorales, imponer restricciones exhaustivas sobre contenidos ultrafalsos y materiales similares que muestren a estas personas también podría impedir el desarrollo legítimo de críticas u otros tipos de análisis políticos (al menos cuando el destinatario es una figura pública).

Además, las personas afectadas pueden tener ya a su disposición recursos de protección judicial, como las distintas leyes estatales contra la difamación, la injuria y el daño emocional intencionado. (A Giuliani, hace poco, se lo declaró responsable por haber difamado a las trabajadoras electorales que había atacado). 

En muchos casos, tendría más sentido asegurarse de que estas leyes de aplicación más general consideren debidamente la tecnología de contenidos ultrafalsos cada vez más avanzada. 

Poner freno a las formas engañosas de expresión política en general. De igual modo, podría argumentarse la necesidad de regular contenidos ultrafalsos y otros contenidos engañosos que implican temas de interés público, aun sin ningún vínculo explícito con las elecciones, aunque es probable que los esfuerzos más agresivos sean más difíciles de justificar ante un tribunal. 

Las comunicaciones engañosas centradas en temas políticos y sociales controversiales son el tipo de desinformación más frecuente y suelen tener el objetivo —al igual que la desinformación específica en torno a las elecciones— de distorsionar y desestabilizar el proceso político. 

Por ejemplo, muchos de los anuncios de procedencia rusa dirigidos al electorado estadounidense en 2016 ni siquiera mencionaban el nombre de ningún candidato; sino que buscaban sembrar la discordia sobre temas sociales divisorios dentro de un contexto ya muy polarizado. 

Un grupo de investigadores de Microsoft afirmó hace poco que China estaba generando imágenes que “buscaban imitar a votantes estadounidenses de todo el espectro político y crear controversias sobre temas raciales, económicos e ideológicos”. 

También se podrían difundir comunicaciones para desacreditar a líderes políticos sin ningún vínculo claro con alguna elección inmediata. Keir Starmer, líder de la oposición en el Reino Unido, fue atacado hace poco cuando se hizo viral un clip de audio aparentemente falso y generado por IA donde, al parecer, se lo oía insultar a su personal. A los pocos días, el clip tuvo 1.5 millones de reproducciones en X (antes Twitter). 

Sin embargo, los intentos más amplios de restringir este tipo de comunicaciones conllevan sus propios riesgos. Hasta quienes defienden tenazmente todo esfuerzo de combatir la desinformación suelen admitir que el límite entre la desinformación y cualquier opinión legítima de la gente (aunque fuera errada) no siempre está claro. 

Pero, cabe aclarar que, en el caso de los contenidos ultrafalsos, la diferencia es más evidente que con otros tipos de comunicaciones engañosas, ya que los primeros son falsos por definición y, por lo tanto, reducen el riesgo de que las percepciones subjetivas de un ente regulador de lo que es o no verdad impidan la libre expresión sincera. 

De todas formas, los contenidos ultrafalsos aun tienen un componente expresivo y, en algunos casos, un valor artístico o de análisis político genuino. Al menos en Estados Unidos, la justicia puede dictar que el interés público de mejorar la calidad de las formas de expresión política es o no suficiente como para justificar la implementación de restricciones exhaustivas sobre este tipo de comunicaciones. 

Las restricciones más generales sobre contenidos ultrafalsos y otros contenidos manipulados seguramente deban colocar, como mínimo, ciertas exclusiones y posiblemente medidas menos restrictivas (por ejemplo, un requisito de transparencia en lugar de una prohibición absoluta) que otras reglas más específicas, tal como se detalla a continuación. 

¿Qué comportamientos deberían reglamentarse?

La próxima pregunta que deben responder las personas encargadas de formular políticas es qué debería reglamentarse. Las leyes y propuestas existentes presentan enfoques muy diferentes. Algunas buscan abarcar todos los contenidos considerablemente engañosos, mientras que otras se centran solo en los contenidos sintéticos o en los contenidos sintéticos donde aparecen candidatos políticos o hasta en contenidos sintéticos de video donde aparecen candidatos. 

En nuestra opinión, las reglas deberían abarcar en general a todo contenido de imagen, audio o video que haya sido manipulado, sea convincente, muestre un acontecimiento o una declaración que, en realidad, no ocurrió y se lo utilice en un anuncio de campaña pago, al igual que otros tipos de comunicaciones pagas o no pagas, con las exclusiones y excepciones correspondientes. 

Las fotos adulteradas y los clips de video manipulados no son novedad en el mundo de la política. De hecho, la edición de fotos de contrincantes para mostrar a la persona de un modo más siniestro o poco atractivo se ha vuelto un sello distintivo en las campañas políticas de los Estados Unidos. 

La oposición, en algunos de sus anuncios, oscureció la piel de Barack Obama. Un anuncio de la campaña de Trump en 2020 manipuló tres fotos de Joe Biden para que parezca “solo” y “escondido” durante el confinamiento por la pandemia de covid-19 en 2020. 

La propia campaña de Biden editó videos de Trump para que pareciera estar diciendo que la pandemia del coronavirus era una “farsa”. También en 2020, un video manipulado donde aparecía la Presidenta de la Cámara de Representantes Nancy Pelosi borracha y balbuceando palabras se volvió viral en las redes sociales. Ninguno de estos videos utilizó tecnologías de IA. 

Por consiguiente, algunas propuestas buscan regular todos los “contenidos considerablemente engañosos” que se utilicen en las comunicaciones políticas o electorales, se hayan manipulado o no por medio de IA. Una ley aprobada en California en 2019 reglamenta la distribución de contenidos donde aparezcan candidatos dentro de los 60 días de una elección, y abarca imágenes, videos o clips de audio manipulados de candidatos con “la intención de dañar su reputación o engañar al electorado para que vote a favor o en contra de un candidato determinado”. 

Pero más frecuentes son las propuestas y leyes que regulan explícitamente solo los contenidos sintéticos, como un proyecto de ley en Nueva York destinado a las comunicaciones políticas que incorporan imágenes, videos, texto o grabaciones deliberadamente “creados o modificados mediante el uso de la inteligencia artificial”. 

Otros estados también buscan regular los contenidos sintéticos en leyes y propuestas nuevas, como lo que ocurre con, al menos, ocho proyectos de ley que se encuentran en el Congreso. Pero, incluso en estas instancias, vemos diferencias en los tipos de contenidos que se incluyen. La mayoría de los proyectos de ley contemplan imágenes, videos y contenidos de audio; algunos, como el de Nueva York, también incluyen contenidos de texto, y otros, como uno en Texas, se limitan a imágenes de video. 

Otra pregunta relacionada es si la ley debería estar destinada únicamente a contenidos ultrafalsos de candidatos políticos o abarcar una gama más amplia de imágenes, videos o audios manipulados. Aun en los anuncios de campaña de los propios candidatos, no resulta difícil imaginar métodos de engaño que no se hagan pasar por el candidato de la oposición o muestren una representación falsa, pero que igualmente engañen al público. 

Por ejemplo, un candidato a alcalde de la ciudad de Toronto utilizó imágenes generadas por IA en sus materiales de campaña y fue descubierto solo cuando el público se percató de una imagen que supuestamente mostraba a votantes promedio, pero aparecía una mujer de tres brazos

Si bien este uso de la IA fue relativamente inofensivo, se puede emplear esta misma tecnología para crear imágenes más alarmantes de acontecimientos y sucesos que nunca ocurrieron. Por ejemplo, un anuncio reciente del Comité Nacional Republicano muestra varios escenarios posibles y controversiales, como una ciudad en confinamiento, una guerra entre China y Taiwán y el ingreso de inmigrantes a través de la frontera, todos generados por IA. Otra imagen falsa que se hizo viral en las redes parecía mostrar una explosión en el Pentágono. 

Las personas a cargo de formular políticas también se deberían preguntar qué tipos de contenidos esperan regular. En la actualidad, la gran mayoría de las noticias sobre contenidos ultrafalsos se centran en los videos falsos, lo cual puede explicar por qué algunas propuestas recientes se han concentrado únicamente en las imágenes de video sintéticas.

Pero, como ya se detalló, la tecnología detrás de los contenidos ultrafalsos también puede crear fotos y contenidos de audio falsos. Dejar este tipo de contenidos fuera del alcance de las reglas puede generar lagunas jurídicas importantes. Ello parece haber ocurrido con los clips de audio falsos del político eslovaco Michal Šimečka, que circularon por Facebook con gran viralidad, pero que no fueron captados por las reglas de manipulación de contenidos de Meta que solo se aplican a contenidos de video. (Un caso que, ahora mismo, se encuentra bajo consideración de la Junta de Supervisión de Meta podría provocar una reevaluación de esta política). 

En general, las reglamentaciones sobre contenidos ultrafalsos y otros contenidos manipulados deberían incluir contenidos de imagen, video y audio, cualquiera de los cuales puede, en efecto, engañar al electorado. La ley debería, como mínimo, exigir que se coloquen descargos de responsabilidad en anuncios de campaña profesionales que hayan usado contenidos manipulados —entre ellos, los generados por IA— para presentar acontecimientos o declaraciones que, en realidad, no ocurrieron. 

En este contexto, los anuncios de campaña incluirían anuncios pagos que distribuyen las campañas políticas de los candidatos u otros PAC (comités de acción política, que se definen, según la ley federal, como entidades cuyo “propósito principal” consiste en influenciar las elecciones), así como también anuncios publicados por terceros que contengan mensajes electorales explícitos, o bien muestren a un candidato poco tiempo antes de una elección. 

Un buen modelo para la formulación de reglas sobre contenidos manipulados podrían ser las leyes federales de financiación de campañas, que regulan las llamadas “comunicaciones de campaña electoral”, es decir, toda comunicación paga de radiodifusión, teledifusión, cable o satélite distribuida 30 días antes de una elección primaria o 60 días antes de una elección general que se refiera o muestre a un candidato y esté destinada al electorado. Para que sea efectivo, este marco también debería aplicarse a los anuncios distribuidos por internet. 

Que se amplíe la reglamentación para cubrir otros tipos de comunicaciones pagas o no pagas deberá depender del contexto. Se podría argumentar la necesidad de regular las campañas de candidatos y otros PAC cuando distribuyen ciertos contenidos ultrafalsos mediante cualquier vía (por ejemplo, las aplicaciones de mensajería encriptada como WhastApp y Signal), aun cuando no se pague dinero para difundirlos, como contenidos ultrafalsos que buscan hacerse pasar por un candidato de la oposición. 

Las regulaciones federales ya prohíben algunos tipos de imitación de la identidad, y, en la actualidad, la FEC está evaluando la posibilidad de extender esas reglas explícitamente a los contenidos ultrafalsos. 

Como se señaló antes, también hay argumentos convincentes a favor de la prohibición de crear y difundir cualquier tipo de contenido manipulado que propague desinformación sobre el proceso de votación, con la intención de privarle al electorado de su derecho al voto, o bien que muestre falsamente actividades ilegales para sembrar la duda sobre la legitimidad de una elección. 

También podría justificarse la implementación de reglas centradas en el uso de la IA u otros contenidos manipulados en otros tipos de comunicaciones —como las comunicaciones electorales no pagas publicadas por otras personas que no sean candidatas ni PAC, y cualquier tipo de comunicaciones que trate temas generales de interés público sin ninguna relación directa con las elecciones—, pero es más probable que restrinjan la libre expresión del público en general. 

Este riesgo es una de las razones, como se señaló antes, por las que creemos que las reglas más generales sobre contenidos ultrafalsos deberían centrarse mayormente en los requisitos de divulgación y deberían reservarse las prohibiciones absolutas para las categorías más específicas de comunicaciones particularmente dañinas. 

Otro factor restrictivo importante es que, casi con seguridad, no tendría sentido restringir las comunicaciones que no presenten acontecimientos ni declaraciones que, en realidad, no ocurrieron. Otras tácticas, como alterar una imagen para modificar la apariencia de una persona o agregar un fondo sintético, pueden ser desde inofensivas hasta nefarias. Pero es probable que los intentos por restringir estos usos de IA sean más difíciles de justificar ante un tribunal.

Para no obstaculizar la libre expresión protegida legalmente, las personas a cargo de formular políticas también deberán crear diferentes exclusiones o excepciones. Dada la función central que desempeña la prensa en nuestra democracia y la necesidad de que los medios de comunicación tengan libertad de acción para informar los temas de interés público, la ley exige que la mayoría de las reglas de financiación de campañas incluyan una excepción para la prensa que exime de la regulación a ciertas actividades periodísticas frecuentes, como la presentación de editoriales y noticias. 

Es probable que se justifique incorporar excepciones similares para la prensa en reglas que restrinjan la difusión de contenidos ultrafalsos (que, entre otras cosas, pueden ser de un interés periodístico legítimo). Las parodias y sátiras son otra excepción importante en las leyes sobre contenidos ultrafalsos, que fueron incluidas en las leyes de California, Minnesota y en el proyecto de ley presentado por integrantes de los dos partidos políticos en el Senado federal conocido como Protejamos las elecciones de la IA engañosa (Protect Elections from Deceptive AI, S. 2770). También puede ser necesario incorporar otras excepciones según el alcance de la restricción sobre contenidos ultrafalsos y según el grado de infracción de derechos. 

¿Cómo se deberían regular los contenidos ultrafalsos y similares? 

Otra pregunta importante es cómo regular los contenidos manipulados. En términos generales, tanto el Congreso como las legislaturas estatales han tomado uno de estos dos enfoques a la hora de reglamentar contenidos ultrafalsos u otros contenidos manipulados: exigir la divulgación de que se trata de un contenido ultrafalso o manipulado, o bien prohibirlo por completo. Si bien la divulgación será, en casi todos los casos, más fácil de justificar ante un tribunal de justicia, también resulta adecuado aplicar prohibiciones específicas sobre los tipos de contenidos manipulados más descarados. 

La mayoría de las leyes y propuestas nuevas que restringen contenidos ultrafalsos y otros contenidos manipulados se centran en su divulgación. Por ejemplo, el estado de Washington y California exigen la divulgación de todo contenido no auténtico que muestre falsamente a candidatos políticos, con la intención de engañar al electorado; la legislatura de Míchigan aprobó hace poco una ley similar. Del mismo modo, en el Congreso, la ley de divulgación de IA de 2023 (AI Disclosure Act, H.R. 3831) exigiría que todo contenido creado por IA incluya el mensaje “Descargo de responsabilidad: Este producto ha sido generado por inteligencia artificial”. La ley de marcado de IA de 2023 (AI Labeling Act, S. 2691) exige una divulgación similar y especifica que el descargo de responsabilidad debe ser legible y difícil de eliminar. La ley de avisos comerciales políticos REAL (REAL Political Advertisements Act, H.R. 3044 y S. 1596) exige la incorporación de descargos de responsabilidad sobre todo anuncio político que utilice contenido generado por IA “en parte o en su totalidad”. La ley sobre rendición de cuentas de contenidos ultrafalsos (DEEPFAKES Accountability Act, H.R. 5586) requiere un descargo de responsabilidad sobre todo contenido ultrafalso de cualquier persona, sea o no una figura política. 

Estas propuestas se centran en la divulgación por un motivo: tal como la Corte Suprema ha señalado en el contexto de la financiación de campañas, la divulgación no “impide la libre expresión de nadie”. Por lo tanto, los requisitos de divulgación suelen estar sujetos a normas constitucionales más permisivas. 

Las reglas de transparencia durante las campañas políticas —como las que exigen la incorporación de descargos de responsabilidad en los anuncios para que el público sepa quién los pagó— también son muy favorecidas en todo el espectro ideológico. 

Sin embargo, un grupo de legisladores y congresistas han presentado propuestas para prohibir ciertas categorías de contenidos ultrafalsos que buscan influenciar las elecciones. Hay leyes en Texas y Minnesota que prohíben estos contenidos (tal como lo hace la ley Protejamos las elecciones de la IA engañosa). 

La ley de Texas prohíbe videos ultrafalsos, que define como videos creados para “presentar a una persona real haciendo algo que, en realidad, no ocurrió”, con el objetivo de causar daño al candidato o influir en una elección. La ley en Minnesota prohíbe videos, audios e imágenes que sean “tan realistas que cualquier persona razonable creería que presentan las palabras o el comportamiento de otra persona” cuando se difunden para influir en una elección. 

Cabe señalar que las prohibiciones de los dos estados se limitan a la distribución de contenidos dentro de un marco de tiempo específico (dentro de los 30 días de una elección en Texas y los 90 días en Minnesota). 

Las prohibiciones absolutas de este tipo tienen ciertas ventajas sobre la divulgación. No todo el mundo que ve o escucha un contenido ultrafalso u otras formas de contenidos manipulados verá un descargo de responsabilidad que tiene como objetivo informar sobre la artificialidad del contenido. 

Además, los videos, las imágenes y los audios pueden alterarse para eliminar los descargos, más allá de los esfuerzos por desarrollar tecnologías de marcas de agua para contenidos sintéticos. Los requisitos de incluir descargos de responsabilidad también son difíciles de hacer cumplir en una era de anuncios por internet que se dirigen a grupos muy específicos y que están sujetos a muy poca revisión humana o ninguna. 

En particular para las comunicaciones que tienen muy poco valor justificativo o ninguno —como las que intentan engañar al electorado para que no vayan a votar o las que presentan actividades ilegales que no ocurrieron para socavar la legitimidad de una elección—, hay argumentos contundentes para implementar reglas claras que las prohíban. 

También se podrían justificar otras prohibiciones más generales sobre contenidos ultrafalsos y otros contenidos manipulados relacionados con las elecciones, pero es probable que deban restringirse a un período determinado previo a las elecciones, como se hizo en Texas y Minnesota, y tener claras exclusiones para la parodia y otras formas de expresión no engañosas.

¿Quiénes deberían regularse?

Por último, llegamos a la pregunta de quiénes deberían regularse. En términos generales, creemos que la mayoría de las regulaciones deberían dirigirse a los candidatos, PAC y toda persona o entidad que crea y distribuye contenidos ultrafalsos y similares relacionados con las elecciones, pero quienes formulan las políticas también deberían evaluar la posibilidad de incorporar reglas específicas para las plataformas de internet y otras afines.

Por lo general, el interés constitucional del gobierno por reglamentar la expresión política es mayor cuando esa expresión proviene de la campaña política de un candidato o de otras formas de PAC. Estas entidades se encargan de persuadir al electorado. Si bien gozan de sólidos derechos protegidos por la Primera Enmienda, el interés muy arraigado del gobierno por propiciar un electorado informado ha justificado desde siempre la imposición de requisitos de transparencia detallados que obligan a la divulgación de donantes y otros detalles operativos.

Es probable que ese mismo interés justifique el requisito de contar con descargos de responsabilidad claros cuando una campaña o un PAC emplee contenidos ultrafalsos u otros contenidos engañosos, y hasta quizá justifique su prohibición absoluta en ciertas circunstancias, como ya se explicó. También se deberían aplicar, como mínimo, estos requisitos de divulgación sobre otras personas y grupos que emplean este tipo de contenidos en publicidades pagas de campañas políticas, tal como exigirían varias de las propuestas más importantes presentadas en el Congreso.

Para otros tipos de contenidos, como ya se expuso, el regularlos o no depende del contexto.

Por último, es probable que se deban implementar ciertas reglamentaciones específicas para las plataformas que transmiten contenidos ultrafalsos y otros contenidos manipulados.

Un buen modelo en este sentido es la ley de publicidades honestas (Honest Ads Act, S. 1989), que les exigiría a las plataformas de internet principales como Facebook, Google y X mantener un registro público de todas las solicitudes de compra de anuncios políticos por internet, asegurarse de que esos anuncios lleven los descargos de responsabilidad correspondientes de quiénes los pagaron, y realizar todo esfuerzo razonable por garantizar que los anuncios publicados cumplan con todas las demás leyes aplicables.

Todo registro público que mantengan las plataformas de internet también debe incluir información (provista por quienes compran los anuncios) sobre si el anuncio incorpora tecnologías de contenidos ultrafalsos.

Las plataformas también deberían tomar todas las medidas razonables para asegurarse de que estos anuncios incluyan los descargos de responsabilidad exigidos y que no esté prohibida su distribución por alguna otra razón. (Al menos dos plataformas importantes, Google y Meta, han adoptado estos requisitos de descargo de responsabilidad por voluntad propia). También tendría sentido aplicar otros requisitos parecidos para proveedores de radiodifusión, teledifusión, cable y satélite que están sujetos a las reglas de programación política de la Comisión Federal de Comunicaciones (FCC).

  • • •

El surgimiento de los contenidos ultrafalsos sofisticados generados por IA y otros contenidos manipulados presenta un importante reto para las elecciones de todos los países del mundo. Las personas a cargo de formular políticas en los Estados Unidos deben trabajar para confeccionar una respuesta adecuada y específica que mitigue los daños que puedan ocasionar las nuevas tecnologías, sin restringir indebidamente las formas de expresión legítimas.

Cuando se trata de las elecciones, los contenidos sintéticos avanzados en general, como los muchos otros avances recientes en la tecnología de IA, no son una amenaza aislada, sino más bien un amplificador de amenazas.

Las publicidades de campaña engañosas, otras formas de desinformación e información errónea, la supresión del voto, los ataques contra las autoridades y trabajadores electorales y los esfuerzos más amplios de socavar la legitimidad del proceso electoral son todos fenómenos que preceden a la aparición de los contenidos ultrafalsos y continuarían existiendo aun si todos los contenidos generados por IA desaparecieran mañana por arte de magia.

Si bien es imperativo abordar este problema específico, quienes formulan las políticas no deberían perder de vista los desafíos más amplios que han dejado a nuestras instituciones democráticas tan vulnerables ante los nuevos mecanismos de engaño.