Skip Navigation
Análisis

Son muchas las amenazas que aumentan el riesgo de la desinformación en las elecciones de 2024

Tanto el sector privado como el gobierno deben tomar medidas para ayudar a combatir la ola de narrativas electorales falsas.

Esta es una versión abreviada de un artículo que se publicó inicialmente en inglés en Just Security

Suscríbete aquí al nuevo boletín informativo del Brennan Center en español

La diseminación de información falsa sobre las elecciones ha erosionado las piedras angulares de la democracia estadounidense, contribuyendo a una menor confianza en las elecciones del país, la privación del derecho al voto de los votantes y mucha pérdida de trabajadores electorales. 

A pesar de que estas falsas narrativas electorales han sido muy destructivas, existen razones para creer que el problema podría ser mucho peor en 2024.  

Cinco factores podrían empeorar la calidad de la información sobre las elecciones incluso más que en 2020: 

1) Los ataques legales y políticos de la derecha han logrado disuadir a importantes instituciones, organizaciones y agencias gubernamentales de pronunciarse sobre mentiras respecto al proceso electoral;

2) además, los agentes políticos parecen estar cada vez más fuertes y organizados para ampliar sus esfuerzos por socavar la confianza en las elecciones en Estados Unidos;

3) las compañías de redes sociales han reducido considerablemente los esfuerzos por moderar el contenido falso sobre las elecciones y amplificar información exacta; 

(4) una convergencia de crisis geopolíticas recientes está galvanizando un renovado interés de parte de adversarios extranjeros como Rusia, China e Irán en interferir con las elecciones en Estados Unidos;

(5) y los avances recientes en inteligencia artificial dan a los adversarios de la democracia estadounidense acceso a herramientas que pueden intensificar los esfuerzos por suprimir votos y contaminar el entorno informativo con una magnitud y sofisticación nunca antes vista en el ciclo electoral federal. No obstante, es posible que la inteligencia artificial también ayude a combatir estas amenazas. 

No tiene que ocurrir lo peor. Los gobiernos, los funcionarios electorales, los medios de comunicación, las compañías de tecnología y las organizaciones de la sociedad civil pueden tomar medidas para reducir la ola de falsas narrativas electorales. 

Esfuerzos de la extrema derecha para socavar las defensas contra la desinformación  

En el centro del problema está un esfuerzo político y legal que data de hace muchos años para desmantelar las redes humanas e institucionales que han documentado y resistido la desinformación sobre las elecciones en ciclos previos.

Un episodio decisivo de esta campaña empezó en 2022, cuando los fiscales generales de Missouri y Luisiana, además de varios demandantes no gubernamentales, entablaron una demanda contra varias agencias y funcionarios del gobierno de Biden con el propósito de frustrar la colaboración entre sectores cuyo fin era combatir las mentiras en internet. La demanda alegaba que la Casa Blanca, las agencias y los funcionarios coordinaron “con los gigantes de las redes sociales”, y ciertas entidades sin fines de lucro e instituciones académicas, para censurar y suprimir la libre expresión relacionada, entre otras cosas, con la “integridad de las elecciones”. Ese caso, que ahora se denomina, está ante la Corte Suprema. Missouri, está ante la Corte Suprema. 

La demanda ha causado mucha confusión en las agencias federales sobre cómo comunicarse con las plataformas de redes sociales respecto a amenazas extranjeras y nacionales contra las elecciones en Estados Unidos.

Un dictamen inusual de la Corte de Apelación del Quinto Distrito en el otoño confirmó gran parte de una orden de un tribunal de menor instancia que restringió la comunicación por el gobierno de Biden con las compañías de redes sociales.

Si bien la Corte Suprema ha suspendido la orden por ahora —y diversos expertos y profesionales legales han criticado los dictámenes errados de los tribunales de menor instancia— el nerviosismo e incertidumbre cunde en muchas oficinas del gobierno encargadas de combatir la desinformación iniciada en el extranjero, y no saben si continuar su labor o cómo hacerla. 

El pasado noviembre, el Washington Post reportó que las agencias federales han “dejado de advertir a algunas redes sociales sobre campañas extranjeras de desinformación en sus plataformas, revirtiendo así una estrategia de muchos años de impedir que Rusia y otros agentes políticos [en nombre de sus naciones] interfieran con la política estadounidense” a menos de un año del día de las elecciones. 

Para los investigadores, funcionarios del gobierno y servidores públicos, una investigación paralela por miembros republicanos de la Cámara de Representantes de Estados Unidos ha tenido, quizá, un efecto incluso más desalentador.

En el último año, el congresista de Ohio, Jim Jordan, miembro del Select Subcommittee on the Weaponization of the Federal Government, ha dirigido a dichas personas y entidades una enorme cantidad de solicitudes de información y citaciones. Por ejemplo, el comité ha llamado a testificar a agencias del gobierno para investigar los mensajes entre compañías de tecnología y el poder ejecutivo, y ha acusado al gobierno de Biden de acallar voces de la derecha.

A su vez, el Global Engagement Center del Departamento de Estado, encargado de combatir la propaganda política extranjera, también ha sido elegido como blanco del comité de Jordan, que propuso quitarle los fondos.

Este entorno amenazante afecta también a las oficinas electorales locales. Por ejemplo, un funcionario electoral en Florida dijo recientemente que ya no puede hablar a los electores sobre su labor con el Centro de Intercambio y Análisis de Información sobre Infraestructura Electoral (Elections Infrastructure Information Sharing & Analysis Center o EI-ISAC por sus siglas en inglés) —una red de intercambio de información para funcionarios electorales que a veces combate las mentiras sobre el proceso de votación— o ni siquiera decir la palabra “desinformación” por temor a reacciones negativas. 

Las compañías de redes sociales dejan de moderar los contenidos 

En medio de tanta intimidación hacia quienes buscan luchar contra la información electoral falsa, las principales compañías de redes sociales han recortado drásticamente los recursos de su personal dedicados a abordar estas cuestiones. Los equipos responsables de “confianza y seguridad”, “integridad”, “moderación de contenido”, “ética de la inteligencia artificial” e “innovación responsable” se vieron destruidos por una serie de despidos que comenzaron a finales de 2022. 

Algunas compañías están optando por subcontratar este tipo de trabajo de manera parcial o total, lo que ha llevado a que empresas emergentes ofrezcan confianza y seguridad como servicio a las mismas compañías que hicieron estos profundos recortes, a menudo sin mayor acceso ni influencia sobre las opciones de diseño de los productos principales que exacerban la difusión de desinformación electoral y otros contenidos problemáticos. 

Dos extrabajadores de integridad de Facebook sostienen que los efectos a largo plazo serán “insoportablemente altos”, tanto para las propias compañías como para la sociedad en general, al intensificar el volumen de contenido tóxico en las plataformas y hacer que las plataformas sean menos útiles y valiosas para los usuarios. 

La fractura del entorno de las redes sociales plantea retos adicionales. A medida que Twitter pierde usuarios mes a mes y Facebook pierde relevancia para los usuarios más jóvenes, una proliferación de nuevas plataformas en los últimos años busca llenar los vacíos.

TikTok representa el caso más notable de éxito en términos de atraer usuarios, pero el crecimiento de muchas otras plataformas (incluidas Parler, Gab, Truth Social, Mastodon, Bluesky, Substack, Telegram, Threads y Signal) es evidencia de que la fragmentación es real. 

Esa fragmentación puede tener beneficios, pero también dificulta aún más que los investigadores rastreen las campañas de desinformación en línea. 

Las plataformas de mensajería cifrada individual o grupal como WhatsApp, Telegram, iMessage y Signal son, quizá, los foros más difíciles de abordar cuando se trata de desinformación electoral. Debido a que todo o parte del contenido de estas plataformas está encriptado (es decir, está protegido contra el acceso no autorizado), las empresas que las operan tienen una visibilidad limitada de las campañas de desinformación que se difunden en sus propias plataformas.

Con el gran poder de personalización y conversación que ofrecen los sistemas de inteligencia artificial, no es difícil imaginar cómo se podrían implementar abiertamente chatbots en plataformas cifradas para llevar a cabo operaciones de influencia masiva, diseñadas para influir en los resultados electorales o socavar la confianza en los resultados legítimos. 

Nuevas amenazas de interferencia extranjera 

Mientras tanto, la amenaza de campañas extranjeras de influencia no ha hecho más que aumentar desde las elecciones de 2020. Con la continuación de la guerra de Rusia contra Ucrania, las crecientes tensiones en Medio Oriente debido a la guerra entre Israel y Hamás, y el aumento de la fricción entre Estados Unidos y China, las potencias extranjeras tienen intereses considerables en el resultado de las elecciones de 2024. 

El Departamento de Seguridad Nacional,el Consejo Nacional de Inteligencia y las principales compañías tecnológicas  advierten desde 2022 que es probable que Rusia, Irán y China lancen campañas de interferencia en 2024, con Rusia como la “amenaza más decidida y capaz” contra las elecciones estadounidenses, según Microsoft. 

Estas campañas ya comenzaron. En noviembre, Meta descubrió que miles de cuentas de Facebook con sede en China se hacían pasar por estadounidenses y publicaban sobre temas políticos polarizados.

Redes internas más impactantes de negacionistas electorales 

Al mismo tiempo, las redes internas utilizadas para difundir información falsa y socavar la confianza en las elecciones en Estados Unidos se han vuelto incluso más poderosas. Un conglomerado de organizaciones de derecha llamado Election Integrity Network, encabezado por la negacionista electoral y abogada de Trump, Cleta Mitchell, alienta a la gente a “investigar” sus oficinas electorales locales para identificar influencias supuestamente ilícitas, buscar fraude electoral inscribiéndose como observadores electorales y realizar el mantenimiento de la lista de votantes como aficionados. El grupo cuenta con más de 20 organizaciones de derecha como aliados, desde pequeñas organizaciones políticas hasta entidades más conocidas como la Heritage Foundation

Un gran número de cambios en los procedimientos electorales en los últimos años también tienen la posibilidad de generar más falsedades electorales. Desde las elecciones presidenciales de 2020, varias leyes (en Texas,Florida,Georgia,Dakota del Sur y otros lugares) han ampliado los poderes de los observadores electorales al ofrecerles más libertad o instituir prohibiciones penales vagamente definidas dirigidas contra funcionarios que no brindan a los observadores un amplio acceso para observación. 

Si bien los observadores electorales desempeñan una importante función de transparencia en las elecciones, destacados negacionistas electorales han alentado a algunos observadores a percibir erróneamente que su misión es socavar la confianza en la integridad electoral y confirmar una creencia sin fundamento de que hay fraude generalizado en las elecciones estadounidenses. 

La inteligencia artificial amplificará las amenazas 

Ya sean nacionales o extranjeros, los adversarios de la democracia estadounidense ahora también tienen fácil acceso a herramientas que pueden contaminar aun más el entorno informativo relacionado con las elecciones de 2024 usando mucho menos recursos que en el pasado. 

Los candidatos y activistas ya han utilizado la inteligencia artificial para crear numerosas falsificaciones digitales, desde contenidos ultrafalsos (deepfakes) difundidos por la campaña presidencial de Ron DeSantis que muestran a Trump abrazando al Dr. Anthony Fauci, un respetado ex alto funcionario de salud que ha sido ridiculizado por algunos republicanos, hasta un video del Comité Nacional Republicano que muestra una serie de calamidades distópicas que supuestamente ocurrirán en el segundo mandato presidencial de Biden. 

Más allá de la difusión de los contenidos ultrafalsos para influir en las decisiones de voto, la inteligencia artificial puede explotarse para falsificar sitios web electorales, hacerse pasar por funcionarios electorales, provocar crisis en los centros de votación y generar la impresión de que hay más personas que creen en narrativas falsas sobre el proceso electoral de las que realmente creen.

Individuos malévolos pueden utilizar herramientas en los chatbots de inteligencia artificial generativa para automatizar conversaciones con votantes diseñadas para engañar y pueden hacerlo a gran escala. 

La inteligencia artificial también podría usarse para alimentar la desinformación al impulsar impugnaciones frívolas de votantes y purgas basadas en la negación de las elecciones en 2024. En las elecciones de medio término de 2022, círculos de activistas revisaron las listas de votantes inscritos y otras fuentes de datos diversas para reforzar afirmaciones infundadas de contiendas plagadas por fraude generalizado.

Pasos para un mejor entorno de información 

Los nuevos retos al entorno informativo para las elecciones requieren una respuesta multifacética por parte de los medios de comunicación, los funcionarios electorales, las compañías de tecnología, los tribunales y los encargados de formular políticas públicas.

En este momento, casi cualquiera puede colaborar para derrotar las mentiras electorales que han sido tan destructivas en los últimos años y proporcionar a los estadounidenses información precisa sobre la votación y las elecciones. 

A continuación se describen algunas de las medidas que se deberían tomar ahora, para esta temporada electoral, por los funcionarios electorales de Estados Unidos, las plataformas de redes sociales, las compañías de inteligencia artificial y los medios de comunicación (que, por supuesto, son fundamentales para  garantizar que el público tenga información precisa), y medidas que los gobiernos a nivel federal y estatal deberían tomar a largo plazo. 

Los funcionarios electorales deberían: 

  • Redoblar las mejores medidas de ciberseguridad. como la transición a dominios .gov para disminuir la influencia potencial de sitios web falsificados mediante inteligencia artificial u otros métodos, porque el dominio .gov es administrado por CISA y está disponible solo para “organizaciones gubernamentales con sede en Estados Unidos y entidades controladas por el gobierno”, a diferencia de otros dominios de alto nivel como .com, que cualquiera puede registrar si paga una tarifa.
  • Llevar a cabo campañas afirmativas y oportunas de instrucción electoral que aborden las narrativas falsas comunes sobre el proceso electoral.

Las plataformas de redes sociales deberían: 

  • Revertir el retroceso en materia de desinformación y seguridad electoral. Deberían reforzar sus equipos de confianza y seguridad, integridad y elecciones, para que puedan manejar mejor la avalancha de amenazas relacionadas con las elecciones que se avecinan este año en Estados Unidos y en el extranjero.
  • Desenmascarar los contenidos ultrafalsos (deepfakes) y tomar medidas enérgicas contra los robots coordinados y los sitios web generados por inteligencia artificial que difunden “noticias” falsas.
  • Asegurarse de que los equipos de moderadores dedicados a idiomas distintos del inglés cuenten con el personal adecuado y que el contenido que genera alertas en inglés también las genere en otros idiomas. Haymucha evidencia de que las principales empresas de redes sociales han fallado a las minorías lingüísticas en Estados Unidos, particularmente cuando se trata de frenar la desinformación y proporcionar información electoral precisa.

Las grandes empresascomo Metanormalmente dedican menos recursos a monitorear el contenido de las elecciones estadounidenses en idiomas minoritarios, y el contenido que trasgrede las reglas y que se elimina en inglés a veces no se elimina o se deja publicado por más tiempo, enidiomas como el español. 

Las compañías de inteligencia artificial deberían: 

  • Cumplir urgentemente los compromisos que han acordado públicamente desde una reunión en la Casa Blanca en julio que incluyen poner en vigor “mecanismos que permitan a los usuarios comprender si el contenido de audio o visual es generado por inteligencia artificial”. Adobe, Google y OpenAI parecen ser las empresas que se toman más en serio este compromiso, pero no pueden tener éxito sin que todo el ecosistema se sume. En primer lugar, todas las empresas de IA generativa deberían agregar urgentemente marcas de agua difíciles de eliminar a su contenido generado por inteligencia artificial, algo que ya ha implementado Google Deepmind en su producto SynthID.
  • Unirse, con el sector tecnológico, en torno al estándar abierto de la Coalición para la Procedencia y Autenticidad del Contenido (Coalition for Content Provenance and Authenticity o C2PA por sus siglas en inglés) para incluir información sobre la procedencia del contenido tanto en contenido auténtico como sintético.
  • Anunciar de forma transparente compromisos con la seguridad electoral, similar a la lista de compromisos que OpenAI compartió recientemente, incluido el anuncio de un "clasificador" (aún no lanzado) que, según la compañía, tiene el potencial de identificar qué imágenes fueron producidas por sus sistemas generativos de inteligencia artificial y la adopción del estándar C2PA.
  • Perfeccionar aun más los modelos y limitar las interfaces para impedir la suplantación de candidatos y funcionarios, y la difusión de contenido con el potencial de suprimir votos, y garantizar que los desarrolladores externos que utilizan sus herramientas y servicios respeten las mismas reglas.

Los medios de comunicación y los periodistas deberían: 

  • Entablar relaciones con fuentes autorizadas sobre las elecciones, incluidos funcionarios electorales, para que cuando surjan noticias sensacionalistas, puedan verificar o refutar rápidamente la información que circula en sus comunidades. 
  • Publicar historias previas a las elecciones sobre temas nuevos o confusos: la idea de “pre-bunking” o adelantarse a posibles objetivos de desinformación, por ejemplo. Eso debería incluir brindar a los votantes un contexto y una perspectiva precisa relacionada con fallas o demoras comunes.
  • Hacer un esfuerzo adicional para llegar a nuevos votantes y ciudadanos, que tal vez estén menos familiarizados con las elecciones estadounidenses. Mientras que muchosperiodistassí siguieron este consejo en 2020 y 2022, este año serán necesarios aun más esfuerzos de extensión, así como desacreditación en tiempo real.

Los legisladores federales y estatales deberían: 

  • Promulgar leyes que hagan más difícil que los individuos malintencionados interfieran con las elecciones estadounidenses mediante la difusión de desinformación, con medidas que:
  • protejan a los votantes contra la difusión de mentiras maliciosas sobre la hora, el lugar y la forma en que se llevarán a cabo las elecciones,
  • garanticen que las oficinas electorales tengan fondos adecuados para comunicarse periódicamente con los votantes e informarlos e
  • inviertan en salvaguardias físicas y cibernéticas cruciales para la protección de los trabajadores y la infraestructura electoral.

Antes de que se dañe más la institución de las elecciones, tanto el sector privado como el gobierno deben trabajar cada vez más seriamente para garantizar que se tomen medidas cruciales a fin de ayudar a salvaguardar la democracia estadounidense de estas falsedades. 

Traducción de Keynotes Translations and Editorial Services