Skip Navigation
  • Inicio
  • Nuestro trabajo
  • research reports
  •  Cómo la inteligencia artificial puede afectar la seguridad de las elecciones
Recurso

 Cómo la inteligencia artificial puede afectar la seguridad de las elecciones

La IA plantea una amenaza importante e inmediata pero también puede ofrecer nuevas capacidades de defensa.

Publicado: Octubre 5, 2023
Ver la serie entera La inteligencia artificial y la democracia

La versión completa de este análisis se puede encontrar en inglés aquí. 

  • Los expertos en seguridad afirman que las oficinas electorales de todo el país tienen la capacidad de combatir con eficacia los riesgos de ciberseguridad planteados por la IA de cara a las elecciones de 2024. 
  • La IA puede hacer que los ciberataques sean de mayor magnitud, se realicen con más rapidez, pasen totalmente desapercibidos y logren burlar a las herramientas existentes de seguridad informática. Pero también puede albergar la promesa de ofrecer nuevas capacidades de defensa. 
  • Tanto los medios de comunicación tradicionales como las redes sociales deben trabajar para refutar los temas centrales de información errónea y divulgar información electoral precisa y autenticada, en especial, si proviene de autoridades electorales.

Hemos hablado con numerosas autoridades electorales y especialistas en seguridad sobre sus preocupaciones y sus aspiraciones en cuanto a la inteligencia artificial (IA) generativa. (La IA tradicional utiliza datos que ya existen, mientras que la IA generativa tiene la capacidad de crear nuevos datos similares a sus datos de entrenamiento).

Muchos han expresado graves inquietudes sobre lo que podría implicar la IA generativa para la seguridad de las elecciones.

Este artículo es el primero de una serie que busca profundizar en los posibles efectos de la IA sobre la democracia en los Estados Unidos.

Específicamente, evaluamos cómo la IA cambia (y no cambia) el terreno de la ciberseguridad para las oficinas electorales y su infraestructura. También analizamos la amenaza que presenta la IA generativa sobre la capacidad de las oficinas electorales de funcionar como fuentes acreditadas de información y registros electorales.

Luego, detallamos las medidas que deben tomar el gobierno, el sector privado y los medios de comunicación para protegerse de los riesgos de la IA y ganar la confianza del público en la integridad de los resultados electorales en la era de la inteligencia artificial.

Los próximos artículos de esta serie abordarán, entre otros temas, el impacto de la IA sobre la manipulación de medios en la publicidad política, la administración electoral, los intentos de suprimir votos y el proceso para que miembros del público presenten sus comentarios.

Desafíos

Esta sección detalla las formas en que la IA cambiará (y no cambiará) el panorama de la seguridad electoral para las oficinas electorales y los proveedores de sistemas electorales. Los expertos en seguridad que entrevistamos afirmaron que las oficinas electorales de todo el país tienen la capacidad de combatir con eficacia los riesgos de ciberseguridad planteados por la IA de cara a las elecciones de 2024. 

Estos riesgos se parecen a los que ya se han advertido desde hace veinte años. Las salvaguardas fundamentales requieren una excelente ciberhigiene y la capacidad de prevenir e identificar posibles violaciones de seguridad y recuperarse de ellas; generar un respaldo en papel de los votos; y auditar con regularidad los cómputos de las máquinas de votación. 

Si bien muchas de estas medidas ya se han implementado a lo largo del país gracias a las fuertes inversiones realizadas para aumentar la seguridad de las elecciones, resta mucho más por hacer de cara a 2024. 

Si miramos más hacia el futuro, los expertos concuerdan en que la IA cambiará la forma en que se diseñe el software en general. La IA puede hacer que los ciberataques sean de mayor magnitud, se realicen con más rapidez, pasen totalmente desapercibidos y logren burlar a las herramientas existentes de seguridad informática. 

Pero también puede albergar la promesa de ofrecer nuevas capacidades de defensa. Como lo señaló Jeremy Epstein de la Fundación Nacional de Ciencias (NSF), la IA “tendrá un efecto sobre los aspectos tanto ofensivos como defensivos. El resultado final será completamente incierto”.

 La IA generativa plantea una amenaza importante e inmediata contra las oficinas electorales y los proveedores de sistemas electorales. Tiene una capacidad excelente de imitar a las fuentes acreditadas y engañar más fácilmente a determinadas personas o al público en general al hacerse pasar por autoridades electorales o falsificar documentos electorales oficiales. 

Lo peor es que lo puede hacer a una escala masiva. Como observó Ron Rivest del Instituto Tecnológico de Massachusetts (MIT), “la IA generativa es un verdadero amplificador: con ella, cualquier adversario puede producir más resultados de alta calidad que antes y con menos esfuerzo”.

Tal adversario podría ser cualquier antagonista dentro del país que en las próximas elecciones se aproveche de la IA para atacar a las oficinas electorales que tienen mucho menos recursos que antes; o podrían ser otras naciones como ChinaRusia o Irán, todos países que ya han interferido en las elecciones de los Estados Unidos y están desarrollando tecnologías de IA capaces de atacar las redes de nuestro país.

A continuación, ofrecemos cuatro ejemplos de cómo se podría utilizar la IA para facilitar —y desbaratar— algunos de los ataques más amenazantes que podrían enfrentar las oficinas electorales y su infraestructura. 

A.    Ataques de phishing más sofisticados pero también herramientas más poderosas para combatirlos

Se conoce como phishing a la práctica de enviar mensajes fraudulentos que parecen provenir de una fuente confiable para obtener datos sensibles o engañar a la persona destinataria para que descargue un software malicioso. El phishing se ha utilizado para atacar a autoridades electorales y proveedores de sistemas electorales desde por lo menos el año 2016. 

Un informe realizado por la Agencia de Seguridad Nacional (NSA por sus siglas en inglés) en 2017 detalló un ciberataque efectuado en 2016 por la inteligencia militar rusa contra un proveedor de sistemas electorales de los Estados Unidos, mediante el cual se crearon correos electrónicos aparentemente válidos de ese proveedor y se enviaron emails que contenían softwares maliciosos a 122 autoridades electorales locales. 

La NSA determinó que, si se abrían, los adjuntos corruptos les daban a los hackers involucrados el acceso ilimitado a las computadoras afectadas, con el que podían instalar softwares maliciosos, analizar la actividad del usuario y robar documentos e información de propiedad privada.

Más recientemente, en octubre de 2021, el FBI alertó acerca de una campaña de phishing que se había diseñado con el objetivo de obtener credenciales de inicio de sesión y acceder a los sistemas de votación, y que había afectado a las autoridades electorales de nueve estados.

Las nuevas herramientas de IA permiten orquestar ataques contra los sistemas electorales más generalizados y con menos recursos. El uso de grandes modelos de lenguaje (la tecnología en que se basan los chatbots) elimina la necesidad de contar con personas, excepto por unas pocas, para crear emails de phishing, lo cual significa que se puede utilizar la IA generativa para enviar este tipo de correos electrónicos con más rapidez y a una escala más grande. Esta facilidad se traducirá en el envío de más emails de phishing a autoridades electorales y proveedores de sistemas electorales que antes.

Los ataques en sí también se están volviendo más sofisticados. Es probable que los emails de phishing generados por las nuevas herramientas de IA no contengan los errores ortográficos y gramaticales notorios que caracterizaban a los ataques anteriores. Ahora se puede usar un software de IA para clonar voces y suplantar la identidad de fuentes confiables (por ejemplo, la de altos funcionarios electorales o líderes de empresas tecnológicas privadas) para intentar robar contraseñas protegidas u otro tipo de información confidencial. Además, la IA puede obtener datos del internet sobre las personas a las que se intenta estafar o sobre sus sitios de trabajo, de tal forma que los mensajes parezcan más realistas o urgentes.

Si bien la IA aumenta los riesgos asociados con los ataques de phishing y otros tipos de estafas, también puede potenciar la eficacia de las herramientas para detectar e identificar esos ataques. Los filtros que se utilizan para identificar emails maliciosos pueden ser entrenados con grandes cantidades de datos de emails conocidos y legítimos. Estos filtros usan el procesamiento de lenguaje natural (NLP) y el aprendizaje automático (ML) para distinguir intentos de phishing de cualquier otro contenido legítimo con una eficacia cada vez más alta.

Aún no se sabe si la IA terminará siendo beneficiosa o perjudicial en cuanto a los ataques de phishing; pero, en el futuro cercano, las autoridades electorales deben vigilar este vector de amenazas muy de cerca.

B.    Softwares maliciosos más avanzados pero también defensas potencialmente mejores

Acceder a un sistema no es necesariamente lo único que se necesita para poder corromperlo con un software malicioso. También en este sentido, la IA generativa puede aumentar los riesgos de seguridad, porque les da a quienes obtienen un acceso no autorizado herramientas más poderosas que pueden utilizar una vez que ingresen al sistema. 

Ya se están comenzando a vender servicios de acceso a chatbots como WormGPT, que por unos $70 por mes, supuestamente ayuda a crear softwares maliciosos y generar ataques de phishing sofisticados.

Todos los expertos en seguridad que consultamos estuvieron de acuerdo en que la IA generativa va a cambiar la forma en que se diseñe el software en general. Aun así, algunos señalaron que, si bien la IA —y, en particular, la IA generativa— amplifican los riesgos de software malicioso en los sistemas electorales, la IA (incluso, la no generativa o tradicional) también debería mejorar la ciberdefensa.

La IA tradicional debería poder incrementar la capacidad de clasificar correctamente un software como malicioso.

C.    Suplantación de identidad, imágenes ultrafalsas (deepfakes) y falsificación de sitios web oficiales 

El electorado confía plenamente en las autoridades electorales y en sus sitios web oficiales, y recurre a ellos para obtener información precisa durante las semanas anteriores y posteriores al día de las elecciones, lo cual convierte a estas autoridades y sus sitios web en un objetivo atractivo para los ataques de suplantación de identidad y falsificación.

La IA generativa hace más fácil imitar los sitios web electorales, porque genera códigos HTML, imágenes de archivo, retratos fotográficos extremadamente realistas y textos de sitios web. También permite crear videos y audios falsos a partir de tan solo unos minutos de video e incluso unos segundos de la captura de voz de la persona a la que se desea suplantar su identidad. En el desempeño de sus funciones, la mayoría de las autoridades electorales realizan presentaciones públicas para explicar los procedimientos electorales y comunicar los resultados iniciales al público, y así se crea el material de base necesario para generar estos contenidos falsos. 

Como lo demuestran las innumerables imágenes falsas generadas por la IA, conocidas como ultrafalsas (deepfakes), que se hacen pasar por autoridades gubernamentales en los últimos meses y años, esta amenaza no es tan solo teórica. En marzo de 2023, se hizo viral un video deepfake en el que aparecía la senadora Elizabeth Warren diciendo que se debía prohibir que las personas republicanas votaran.

La amenaza de la suplantación de identidad también se extiende a las redes sociales donde hay muchísimas cuentas falsas. Después de que la red social X (antes llamada Twitter) cambió sus reglas de verificación, una oleada de cuentas impostoras inundó la plataforma, haciéndose pasar por agencias como el IRS y el Departamento de Transporte de Illinois. Las oficinas electorales pueden recibir la nueva marca gris de verificación que la plataforma les otorga a las cuentas del gobierno, pero, al momento de redacción de este artículo, las cuentas de muchos de los condados más poblados del país aún no habían recibido esta verificación.

Claro que el electorado no recurre solamente a las autoridades electorales en busca de información electoral precisa, sino que también busca contenidos oficiales publicados por las jurisdicciones electorales, muchas veces transmitido en los sitios web oficiales de administración electoral. Los expertos en seguridad han advertido, desde hace mucho tiempo, sobre los peligros de los sitios web falsificados que se hacen pasar por fuentes gubernamentales oficiales para difundir información errónea sobre todo tipo de temas, desde cómo y dónde votar, hasta los resultados de las elecciones. 

Este tipo de ataques ya ha ocurrido contra algunos sitios web de administración electoral y otros sitios gubernamentales. Por ejemplo, en 2020, la Comisión Federal de Comercio (FTC) demandó a una empresa que había creado cientos de sitios web falsos usando nombres como DMV.com para imitar a organismos públicos. Estos sitios prometían beneficios públicos falsos para engañar al público y lograr que divulguen información personal. Es probable que, en el futuro, este tipo de ataques aumente en intensidad, ya que la IA generativa simplemente puede leer el código de un sitio web de interés y crear montones de sitios web copiados.

D.    Abuso de los procesos de solicitud de registros abiertos para entorpecer el trabajo de las oficinas electorales

Mark Earley, supervisor de las elecciones para el condado de León, Florida, se hizo eco de la opinión de muchas autoridades electorales a las que consultamos, cuando nos dijo que temía que la IA iba a empeorar una situación ya complicada —es decir, la presentación de una cantidad excesiva de solicitudes frívolas de registros abiertos y bajo la Ley de Libertad de Información (FOIA por sus siglas en inglés)— con el objetivo deliberado de engañar al sistema.

Desde las elecciones de 2020, las personas que impulsan teorías conspirativas sobre el supuesto fraude electoral han inundado las oficinas electorales de todo el país con solicitudes de registros abiertos. En muchos casos, estos grupos de activistas han presentado las mismas solicitudes numerosas veces en diferentes localidades a fin de confirmar sus alegaciones infundadas de un fraude electoral masivo. Estas solicitudes fastidiosas distraen a las oficinas electorales de sus funciones esenciales de administración electoral, en particular durante las semanas y los meses anteriores al día de las elecciones. 

La IA empeora este problema de dos formas. En primer lugar, los grupos pueden utilizar la IA con facilidad para distraer y estorbar, porque pueden generar y presentar cientos e incluso miles de distintas solicitudes de registros abiertos en múltiples jurisdicciones, en lugar de hacerlo con el método actual de copiar y pegar la misma solicitud.

En segundo lugar, como ya se señaló, uno de los peligros de la IA es que cualquiera puede falsificar sitios web, crear videos falsos y falsificar o adulterar documentos oficiales con muchísima facilidad. Las autoridades electorales a las que consultamos expresaron su preocupación por que los documentos con marcas de agua o los videos de trabajadores electorales donde explican su trabajo, que son presentados en respuesta a las solicitudes de registros abiertos, se puedan manipular para producir copias falsas muy convincentes y así sembrar la duda sobre los resultados de las elecciones. 

Si bien puede haber sido posible realizar algunas versiones de estos ataques antes de los últimos avances en la IA generativa, las excelentes capacidades de generación de imágenes de esta nueva tecnología podrían hacer estos ataques muchísimo más sofisticados y dificultar aún más la tarea de desacreditarlos.

Mitigaciones

No hay una solución mágica para resolver los mayores riesgos de seguridad que presentan los rápidos avances de la tecnología de la IA y su amplia disponibilidad. Sin embargo, en términos generales, el gobierno y el sector privado deben tomar medidas en cinco áreas para mitigar esta mayor amenaza: 1) crear sistemas electorales más seguros y resilientes; 2) brindarles a las autoridades electorales más soporte técnico para salvaguardar la infraestructura electoral; 3) darle a la población formas para confirmar la autenticidad de las comunicaciones electorales oficiales y detectar los contenidos falsos; 4) ofrecer a los trabajadores electorales capacitaciones y recursos específicos sobre la IA y 5) combatir con efectividad las narrativas falsas generadas por la IA o sobre ella.

A.    Incorporar más seguridad y resiliencia en los sistemas electorales

Si bien la nación ya ha efectuado importantes avances en materia de seguridad electoral en los últimos diez años, la probabilidad de que la IA vaya a potenciar las amenazas de seguridad hace aún más esencial que se adopten las salvaguardas existentes —algunas de las cuales emplean técnicas de IA— y se creen nuevas para que las autoridades electorales puedan prevenir, detectar y recuperarse de posibles ciberataques contra la infraestructura electoral.

Algunas jurisdicciones todavía deben ampliar su uso dela autenticación multifactor, que la directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA por sus siglas en inglés), Jen Easterly, ha definido como el paso más importante que pueden dar los usuarios para combatir las amenazas a la ciberseguridad. 

La autenticación multifactor exige que los usuarios deban presentar una combinación de algo que conocen (por ejemplo, una contraseña), algo que tienen (por ejemplo, una app de autenticación en un teléfono celular que recibe un código o una solicitud de verificación) o alguna forma de identificación biométrica (por ejemplo, una huella dactilar).

Los especialistas en seguridad han recomendado desde hace mucho tiempo la autenticación multifactor, pero su adopción no ha sido universal. Las autoridades estatales y locales deben garantizar una adopción aún más amplia de esta medida de seguridad fundamental.

También se debe contar con una planeación de resiliencia efectiva. Aun cuando se lleven a cabo con éxito ciberataques asistidos por IA, no se puede permitir que le impidan a la ciudadanía emitir su voto o al gobierno contar esos votos con precisión.

Los estados han realizado avances extraordinarios para mejorar la resiliencia de sus sistemas durante la última década e incluso han recurrido ampliamente al uso de las boletas en papel en las que el votante debe marcar sus preferencias. El Brennan Center calculó que, en 2022, el 93 por ciento de las personas que votaron —entre ellas, casi todas las que votaron en los estados clave más disputados— votaron con boletas en papel.

Pero sigue habiendo deficiencias en la resiliencia de los sistemas electorales. Por ejemplo, las boletas en papel son una medida de seguridad útil solo cuando se las utiliza para verificar los resultados electrónicos. Más estados deben realizar auditorías posteriores a las elecciones, donde se compare un subgrupo de boletas en papel con los conteos electrónicos. 

Al año 2022, ocho estados aún no requieren la realización de ningún tipo de auditoría posterior a las elecciones. Incluso entre los 42 estados que sí lo hacen, la eficacia de las auditorías como una herramienta para detectar ciberataques y errores técnicos varía ampliamente de caso en caso.

Los proveedores de sistemas electorales son también objeto de posibles ataques. El Brennan Center ya detalló las formas en que el gobierno federal podría exigir la implementación de mejores prácticas de seguridad electoral —que incluyan una planeación de seguridad y resiliencia más consolidada— para los proveedores del sector electoral, del mismo modo que lo hace para los proveedores de otros sectores gubernamentales que prestan infraestructura considerada fundamental. Estos estándares deben incluir directrices para el uso de la IA y su divulgación durante el trabajo de los proveedores de sistemas electorales para identificar posibles riesgos de seguridad.

B.   Brindarles a las autoridades electorales locales más soporte técnico para proteger la infraestructura electoral

En el sistema electoral descentralizado de los Estados Unidos, las jurisdicciones locales de pocos recursos, potencialmente vulnerables y con una capacidad limitada de combatir ataques de ciberseguridad presentan una de las vulnerabilidades más preocupantes. Estas oficinas electorales tienen muy pocos o nada de conocimientos especializados sobre ciberseguridad y suelen depender de otras oficinas de su condado o municipalidad para obtener soporte informático. Aun así, las autoridades que ejercen sus funciones en estas oficinas tienen el mismo deber monumental de desempeñarse como figuras de seguridad nacional de primera línea.

Este reto solo incrementará a medida que disminuyan los obstáculos de lanzar ataques sofisticados contra la ciberseguridad. Los gobiernos estatales y federal deben tomar más medidas para proteger a las jurisdicciones locales de este tipo de ataques.

1.     Invertir en IA para proteger la infraestructura electoral

La ciberseguridad es una carrera sin meta. En los años venideros, es probable que la IA ofrezca herramientas más poderosas para hackear nuestra infraestructura electoral. Es también probable que ofrezca herramientas poderosas para defenderla, pero solo si el gobierno se esfuerza en asegurarse de que sus autoridades electorales tengan acceso a esas herramientas y comprendan cómo utilizarlas.

Las autoridades electorales necesitan con urgencia herramientas asistidas por IA para combatir los ciberataques cada vez más sofisticados y frecuentes. El gobierno federal debe priorizar el desarrollo de este tipo de herramientas y trabajar para garantizar la suficiente infraestructura en la que se puedan implementar por todo el país.

A nivel estatal, ello implica diseñar programas cibernéticos que empleen a profesionales de la ciberseguridad y la administración electoral para que trabajen en estrecha colaboración con las autoridades electorales con el fin de evaluar la seguridad de los sistemas, identificar posibles vulnerabilidades y crear estrategias individualizadas para mitigar los riesgos. A nivel federal, podría significar el despliegue de más consultores de ciberseguridad, es decir, personas expertas y capacitadas en ciberseguridad que puedan asistir a las autoridades locales y estatales.

2.     Impulsar la inversión de empresas tecnológicas en herramientas gratuitas y de bajo costo que aumenten la seguridad, confianza y transparencia en las elecciones

Las empresas que desarrollan herramientas de IA no deben esperar a que el gobierno publique mandatos o que se conviertan en realidad las amenazas más peligrosas de la IA contra la democracia. Deben ponerse a trabajar ahora mismo para ayudar activamente a las autoridades electorales a comprender los riesgos que señalamos antes. 

En términos específicos, deben considerar cómo su trabajo puede repercutir en el sector de la ciberseguridad, incluso en la seguridad electoral, y ampliar sus ofertas y contribuciones proactivas para fomentar un entorno sano de información electoral. Entre otras cosas, pueden invertir recursos en organizaciones sin fines de lucro y programas tales como la Election Technology Initiative, una iniciativa que busca mantener, apoyar y ofrecer tecnologías para que las autoridades de administración electoral puedan aumentar la confianza y transparencia en las elecciones.

C.    Autenticar las comunicaciones electorales oficiales y ayudar al público a detectar contenido falsificado

Las oficinas y autoridades electorales fueron un baluarte fundamental contra las mentiras del robo de las elecciones de 2020. Como consecuencia, aquellas personas que buscan socavar la confianza en la democracia de los Estados Unidos siguen eligiéndolas como un blanco valioso, atacando su credibilidad con falsedades, acosándolas y amenazándolas con acciones penales y ataques físicos.

El contenido generado por la IA ofrece una nueva forma de atacar la credibilidad de estas fuentes de información crucial con “mangueras de falsedades” (firehose of falsehood) que se deriva de estas mismas fuentes, con lo cual se le hace aún más difícil a la persona promedio distinguir la verdad. 

Para resolver el problema del contenido falsificado por la IA, se necesitan soluciones multifacéticas. Las autoridades electorales deben actuar para asegurar sus canales de comunicación y hacer que sea más difícil falsificarlos, y todos los niveles de gobierno deben reforzar estas medidas. Las entidades que brindan al público información electoral también deben verificar sus contenidos por medio de fuentes oficiales. 

Las siguientes medidas urgentes podrían ayudar a detener el flujo de información falsa.

1.     Convertir todos los sitios web electorales bajo dominios .gov

Los sitios web electorales en los Estados Unidos son demasiado vulnerables. En los meses anteriores a las elecciones de 2020, el FBI identificó decenas de sitios web que imitaban a fuentes estatales y federales de información electoral bajo los dominios .com y .org, de fácil disposición. 

Para combatir la falsificación e interferencia de sitios web, los gobiernos estatales y federal deben trabajar en conjunto para asegurarse de que todas las oficinas electorales utilicen dominios .gov —que solo pueden obtener las entidades gubernamentales verificadas— para sus sitios web. A la fecha, solo una de cada cuatro oficinas electorales usa un dominio .gov. 

2.     Verificar cuentas y difundir información verdadera

En la actualidad, no existe un equivalente al dominio .gov en las redes sociales, y la IA generativa permite crear cuentas de redes sociales falsas y llenarlas de contenido con una facilidad alarmante, que, entre otros problemas, puede brindarle a la ciudadanía información incorrecta sobre cómo y dónde votar. 

Las compañías de redes sociales más importantes pueden intervenir identificando, verificando y difundiendo los contenidos oficiales y auténticos de información electoral, como ya han recomendado el Brennan Center y el Bipartisan Policy Center.

Una solución es que la Comisión de Asistencia Electoral (EAC por sus siglas en inglés) o la CISA creen un servidor específico en el llamado Fediverse, que es una especie de centro de intercambio de información federal para todas las plataformas de redes sociales que contenga las cuentas oficiales y verificadas sobre toda información electoral y que pueda servir de centro de distribución y redifusión para cualquier sitio de redes sociales. Así, las publicaciones con nombres de usuario que contengan la sigla .gov podrían ser verificadas y programadas, lo cual evitaría que las autoridades electorales locales tengan que publicar el mismo contenido simultáneamente en varias plataformas. Los usuarios también podrían estar seguros de la veracidad de la información. 

3.     Implementar métodos para asegurarse de que las solicitudes de registros abiertos sean auténticas

Como se indicó antes, la IA hace más fácil enterrar a las oficinas electorales bajo montañas de solicitudes engañosas de registros abiertos que parecen provenir de diferentes personas. Este desafío no tiene una solución simple, pero un paso importante sería que las oficinas electorales exijan que cada solicitud de registro abierto sea presentada por una persona real y que esta utilice alguna versión de CAPTCHA (cuya sigla en inglés significa “test de Turing público y completamente automático para distinguir una computadora de un ser humano”) con el fin de impedir que un bot presente solicitudes de registros abiertos generados por IA para abrumar a una oficina gubernamental.

4.     Buscar formas de autenticar los materiales electorales sensibles

En cuanto al peligro de que los videos o los documentos presentados en respuesta a solicitudes de registros abiertos se manipulen para desinformar, las autoridades electorales deben considerar publicar en sus sitios web las versiones inalteradas de cada documento que se produzca en respuesta a las solicitudes de registros abiertos.

Desafortunadamente, esta estrategia de mitigación exigiría recursos que algunas oficinas ya saturadas no tienen. Otra opción sería que las oficinas electorales estatales creen repositorios centrales donde coloquen todas las respuestas a solicitudes de registros abiertos y donde puedan señalar los documentos originales e inalterados, en caso de que algún hacker intente pasar documentos distorsionados como copias fieles. Hawái ya lo hace.

5.     Tomar medidas adicionales para verificar el contenido sobre temas electorales

La prensa debe cultivar su relación con las autoridades electorales y otras fuentes acreditadas de información y procesos electorales. El contenido que dice provenir de estas fuentes debe ser verificado según el contenido que pueda ser autenticado, por ejemplo, videos y otras fuentes de información que se ofrezcan en un sitio web seguro con un certificado de seguridad válido o, preferentemente, en un sitio web con un dominio .gov. 

Las fuentes también deben representar a las comunidades que no hablan inglés y que han sido históricamente marginadas, para que la prensa pueda aclarar temas específicos y diversos que se prestan a confusión o a errores en la información.

D.    Ofrecer a trabajadores electorales capacitaciones y recursos específicos sobre IA

El personal de las oficinas electorales y los proveedores de sistemas electorales son objetivos atrayentes para aquellas personas que desean perjudicar la confianza de la población en las elecciones de los Estados Unidos. La CISA y otros expertos y organizaciones deben hacer todo lo posible para ayudar a estas oficinas y a su personal a eliminar toda información de sitios web públicos que se puedan utilizar para crear mensajes falsos generados por IA, y ayudar al personal electoral a identificar este tipo de mensajes.

E.    Combatir las narrativas falsas

Todo el mundo debe combatir las narrativas falsas en torno a la seguridad electoral. A continuación, presentamos algunas formas en que el gobierno, los medios de comunicación tradicionales y las plataformas de redes sociales pueden ayudar, a medida que nos acercamos a la temporada electoral de 2024.

La desinformación depende de falsedades básicas que evolucionan y vuelven a circular. La IA generativa aumenta considerablemente las oportunidades de perpetuar esos mitos. Los organismos federales como la CISA y la EAC deben colaborar con las autoridades electorales para concientizar al público sobre la seguridad del sistema electoral y aumentar su confianza.

Es fundamental desacreditar, antes de que se difundan, falsas narrativas virales que ya sabemos que sustentarán las mentiras y la desinformación sobre las elecciones durante las semanas anteriores y posteriores al día de las elecciones.

La CISA y la EAC deben impulsar con ímpetu la divulgación de información precisa que provenga de las autoridades electorales e informar sobre las mejores prácticas para reforzar la resiliencia de la sociedad ante la difusión de información falsa, tales como las falsedades generadas y mejoradas por la IA.

Tanto los medios de comunicación tradicionales como las redes sociales deben trabajar para refutar los temas centrales de información errónea y divulgar información electoral precisa y autenticada, en especial, si proviene de autoridades electorales. Las plataformas de redes sociales deben invertir en herramientas que detecten y eliminen bots coordinados para impedir que la información falsa influya en las elecciones. Además, deben colaborar con aquellas empresas y personas que desarrollan herramientas de IA para mejorar constantemente los métodos de detección de contenido generado por IA.

Conclusión

Cuando se trata de proteger a la infraestructura electoral y a su personal de las amenazas generadas por la IA, lo más importante que pueden hacer las oficinas electorales y sus proveedores es redoblar (y, en algunos casos, implementar por primera vez) las mejores prácticas en materia de seguridad electoral que recomiendan los expertos en el sector gubernamental y académico desde hace más de diez años.

En cuanto a las amenazas de suplantación de identidad, falsificación y otros ataques que intentan violar la seguridad de las oficinas electorales oficiales o sus proveedores, o engañar al público, las soluciones exigen el compromiso de toda la sociedad.

Varias políticas y reglamentaciones nuevas pueden proteger mejor a las autoridades electorales y a los proveedores de sistemas electorales de los ataques generados por la IA en el corto y largo plazo. Exhortamos a que se apliquen mejores reglamentaciones para los proveedores de sistemas electorales, lo cual incluye la creación de nuevos estándares para la divulgación y el uso de la IA en su trabajo. 

También sería útil contar con estándares parecidos para las oficinas electorales.

También recomendamos que la CISA y la EAC brinden una asistencia individualizada a las autoridades electorales para reforzar su resiliencia ante los ataques generados por la IA. Dicha asistencia debe contar con inversiones del sector privado y del gobierno en el desarrollo de herramientas de IA que tengan el potencial de combatir ataques más sofisticados contra nuestra infraestructura electoral y sus oficinas. 

Por último, en vista del riesgo de suplantación de identidad y falsificación que encarnan las nuevas herramientas de IA, los estados y organismos federales como la CISA deben ayudar a las autoridades electorales a tomar las medidas necesarias para autenticar sus registros digitales y comunicaciones con el público.

Traducción de Ana Lis Salotti.

Suscríbete aquí al nuevo boletín informativo del Brennan Center en español.