Enmendar las leyes sobre prácticas engañosas.
La Ley de Prevención de Prácticas Engañosas e Intimidación a Votantes (Deceptive Practices and Voter Intimidation Prevention Act) es un proyecto de ley a nivel federal bien diseñado para ponerles freno a los intentos de supresión del voto que impliquen la difusión deliberada de información falsa sobre cuándo, cómo y dónde votar con la intención de impedir o desalentar el voto dentro de los 60 días anteriores a una elección federal.
Existen otras leyes similares a nivel estatal que prohíben la propagación de información falsa sobre el registro de votantes, el momento, el lugar y el modo de votar en Kansas, Minnesota y Virginia, por ejemplo; y otros estados también están evaluando aprobar este tipo de legislación.
Si bien estos proyectos y leyes sobre prácticas engañosas podrían interpretarse de modo que abarquen algunas de las actividades de supresión del voto propulsadas por la IA generativa, un pequeño agregado en el texto de estas leyes y proyectos de ley podría ayudar a asegurarnos de hacer responsables ante la ley a aquellas personas que desarrollan intencionalmente sistemas de IA diseñados para engañar al electorado sobre el proceso de votación, como así también a aquellas personas cuyas herramientas de IA luego comunican información falsa sobre cuándo, cómo y dónde votar.
Como primera medida, toda legislación debería incluir expresamente el desarrollo y difusión intencional de herramientas de IA. Además, según varias leyes y proyectos de ley existentes que abordan el tema de las prácticas electorales engañosas, para responsabilizar a quienes engañan al electorado sobre el proceso de votación se requiere que sus autores sepan que están comunicando una información falsa.
Pero, debido a que muchos creadores de IA malintencionados pueden no tener el conocimiento actualizado sobre la falsedad de cada uno de los contenidos producidos por sus algoritmos, se deberían enmendar las actuales leyes y proyectos de ley sobre prácticas engañosas y eliminar todo requisito que exija a los desarrolladores de IA generativa poseer el conocimiento preciso de cada información falsa para considerarse responsables ante la ley; la mínima norma legal debería ser poseer el conocimiento de que la herramienta está diseñada para producir información falsa.
Restringir la difusión de más contenidos generados por la IA que pongan en peligro el derecho al voto.
Las leyes estatales y federales también deberían prohibir o restringir la propagación de contenidos sintéticos visuales o de audio —incluidos los generados por IA que muestren falsamente máquinas de votación, equipos de votación o buzones de devolución de boletas dañados o defectuosos; inventen desastres o emergencias en los sitios de votación; o expongan falsamente a trabajadores electorales que parecen estar impidiendo u obstaculizando la votación—, cuando dichos contenidos se hayan creado o difundido con la intención de desalentar o impedir el voto dentro de los 60 días anteriores al día de las elecciones.
Mientras que muchas leyes y proyectos de ley sobre contenidos ultrafalsos se han centrado en el uso de contenidos ultrafalsos generados por la IA que dañan la reputación de las personas candidatas y sus probabilidades de ganar elecciones, los contenidos ultrafalsos que amenazan el derecho al voto ameritan la misma atención de quienes elaboran nuestras leyes y seguramente gocen de una menor protección constitucional de libertad de expresión.
Al igual que lo hace la Ley de Prevención de Prácticas Engañosas e Intimidación a Votantes, este tipo de leyes deberían obligar a las fiscalías generales de los estados a publicar información correctiva precisa en cuanto reciban una denuncia creíble de que se están difundiendo contenidos para suprimir el voto, si las autoridades electorales no actúan como corresponde para educar al electorado según sea necesario.
Además, estas leyes no deberían limitarse únicamente al contenido generado por la lA, sino que deberían abarcar también todos los contenidos visuales y de audio creados con una asistencia importante de medios técnicos, como Photoshop, imágenes generadas por computadora y otras herramientas informáticas.
Exigir la identificación y otras regulaciones para ciertos contenidos generados por tecnologías de chatbots o distribuidos por bots.
Se ha puesto mucha atención en el Congreso y las legislaturas estatales en torno a la identificación o la regulación de otro tipo de los contenidos visuales y de audio generados por la IA (incluidos los contenidos ultrafalsos) en el marco de las elecciones. Pero la tecnología detrás de los chatbots de la IA plantea riesgos diferentes, en especial cuando se trata de la supresión del voto a través de la microfocalización que explota determinadas características y las conversaciones interactivas de la IA que manipula a su interlocutor.
El uso de la tecnología de los grandes modelos de lenguaje (LLM, es decir, la tecnología en que se basan los chatbots de la IA generativa) por parte de las campañas y comités políticos también plantea posibles riesgos para nuestra democracia, por ejemplo, si un chatbot de la IA generativa realiza promesas al público votante que no están vinculadas a la verdadera plataforma de una campaña política.
Las leyes estatales y federales deberían obligar a las campañas y comités políticos y a las personas contratadas a identificar todo contenido que haya sido creado utilizando la tecnología de los grandes modelos de lenguaje (LLM).
Este tipo de requisitos de identificación y otros esfuerzos regulatorios deberían centrarse en los contenidos generados por IA y difundidos por bots cuando los bots se hacen pasar o fingen engañosamente ser un humano; en conversaciones interactivas basadas en los LLM que se pueden mantener entre campañas políticas, comités de acción política (PAC) y el electorado, tanto por internet como en llamadas automáticas; en el uso de LLM por parte de las campañas políticas y los PAC para comunicarse con el electorado con una supervisión y control humanos mínimos; y en las comunicaciones generadas por IA que provienen de las campañas políticas y los PAC y se focalizanespecíficamente en votantes con determinadas características demográficas o según ciertos datos de comportamiento.
Regular el uso de la IA para impugnar votantes y purgar padrones electorales.
La ley NVRA dispone importantes límites sobre las purgas de votantes, pero se necesitan más salvaguardas para proteger al electorado de falsas impugnaciones de votantes y del abuso de la IA para presentar impugnaciones de votantes y eliminar a votantes de los padrones electorales. El Congreso y las legislaturas estatales deberían establecer requisitos de base que rijan el uso oficial de los sistemas de la IA para eliminar a votantes de los padrones.
Para defendernos de la ilegítima privación del derecho al voto, las legislaturas y los organismos gubernamentales deberían establecer normas mínimas de precisión, confiabilidad y calidad de los datos con los que se entrenan los sistemas de IA utilizados para asistir a las autoridades gubernamentales a efectuar purgas de votantes.
Asimismo, deberían exigir que sea el personal humano el que revise todas las decisiones que se tomen con la asistencia de la IA antes de eliminar a un votante de los padrones.
Además, las legislaturas estatales y las autoridades gubernamentales deberían realizar cambios en los procedimientos y requisitos de impugnación. En los estados que permiten que una persona privada presente impugnaciones de elegibilidad, se debería proteger al electorado de toda impugnación infundada, establecer requisitos para presentar documentación y pruebas que respalden una impugnación e imponer restricciones sobre la aceptabilidad de las pruebas.
Como punto de partida, quienes elaboran políticas federales y estatales deberían prohibir el uso de bots para realizar impugnaciones automatizadas contra la inscripción de votantes ante oficinas electorales. Los estados también deberían requerir que las impugnaciones privadas estén basadas en el conocimiento de primera mano sobre la posible inelegibilidad de un votante, lo cual no incluye el uso de la IA u otras modalidades automatizadas de comparación de bases de datos.
Restringir ciertos tipos de sistemas de la IA que violan la privacidad y autonomía de las personas y posibilitan formas sofisticadas de manipulación de votantes.
El Congreso y las legislaturas estatales podrían regular la creación y el empleo de ciertos sistemas de la IA de alto riesgo cuando estos se utilicen para influir en las elecciones y en el voto de la ciudadanía, incluso aquellos sistemas que emplean técnicas subliminales, reconocen emociones, llevan a cabo controles de datos biométricos y utilizan datos biométricos para categorizar a las personas, por ejemplo, en grupos raciales.
También deberían limitar el uso de la IA para manipular al electorado, influir en su comportamiento o infringir sus intereses de privacidad o autonomía personal. Una forma de hacerlo sería creando un régimen de certificación para el uso de las herramientas de la IA con estas capacidades de manipulación en contextos sensibles.
Reforzar la regulación de las llamadas automáticas pregrabadas de carácter político.
Quienes elaboran políticas deberían reforzar la regulación de las llamadas automáticas pregrabadas de carácter político para proteger más al electorado de los intentos de engaño potenciados por la IA.
Como se mencionó antes, la FCC hace poco confirmó que las leyes existentes abarcan las llamadas automáticas que contienen voces generadas por la IA, pero sigue habiendo importantes vacíos legales.
Quienes elaboran leyes estatales y federales deberían resolver estos vacíos legales que permiten realizar llamadas automáticas pregrabadas de carácter político —incluso las que utilizan sistemas de marcación automática y voces generadas por la IA— a teléfonos fijos sin el consentimiento previo del destinatario.
Los encargados de formular políticas públicas también deberían aclarar que el consentimiento de recibir llamadas automáticas políticas con voces generadas por IA debe incluir un aviso claro sobre el uso de la IA generativa y demostrar que la persona comprende que se va a utilizar la IA generativa (en lugar de dar el consentimiento más general de recibir una llamada política de una determinada organización).
Además, quienes confeccionan nuestras leyes deberían obligar a las empresas de telefonía y fabricantes de teléfonos celulares a integrar herramientas de alta calidad que puedan detectar las llamadas con voces generadas por la IA y alertar a sus clientes sobre la alta probabilidad de estar recibiendo una llamada automática generada por IA.
Dar apoyo a las oficinas electorales en sus esfuerzos de educar al electorado y protegerlas de los intentos de suplantación de identidad y hackeo.
Las oficinas electorales pueden implementar varias medidas para reducir los riesgos que plantean los intentos mejorados por la IA de engañar a la población sobre el proceso de votación.
La mayoría de los sitios web de las oficinas electorales del país no tienen un dominio .gov—un dominio de internet que solo pueden utilizar las entidades gubernamentales verificadas de los Estados Unidos—, aun cuando algunos actores fraudulentos han suplantado la identidad de los sitios web de las oficinas electorales para engañar al electorado, una estrategia que podría hacerse más común con la proliferación de las herramientas de la IA generativa.
Migrar estos sitios web a dominios .gov y educar al electorado sobre la importancia de este dominio son formas simples de aumentar la credibilidad de los sitios web oficiales de las oficinas electorales. La provisión de fondos federales y un mayor apoyo del gobierno podría facilitar esta importante medida, que puede ayudar a las autoridades electorales a adelantarse y desacreditar narrativas falsas recurrentes sobre el proceso electoral antes de que se propaguen masivamente, publicando materiales y recursos accesibles.
Las oficinas electorales deberían promover la difusión de mensajes sobre la solidez de las salvaguardas existentes en la seguridad de las elecciones en sus sitios web: un método que se ha demostrado que aumenta la confianza en el proceso electoral más allá de la afiliación política.
También deberían mantener páginas de control de rumores actualizadas en sus sitios web, elaborar planes de comunicación en casos de crisis para contrarrestar rumores virales que amenacen con desalentar el voto de cara a las elecciones o el día de las elecciones, y establecer redes en las comunidades de difícil acceso para diseminar información precisa y oportuna sobre cómo votar.
Aprobar la Ley de Libertad para Votar.
La IA amplifica los miles de desafíos que enfrentan nuestras elecciones desde hace mucho tiempo, y la supresión del voto no es la excepción. Si bien no aborda directamente los riesgos de la IA, laLey de Libertad para Votar (Freedom to Vote Act) que ha sido propuesta en el Congreso protegería al electorado y a la administración electoral, porque les concedería una amplia gama de protecciones fundamentales contra la supresión del voto.
Estas medidas incluyen protecciones contra purgas de votantes indebidas. También prohibiría ciertas prácticas engañosas que podrían privarle a la ciudadanía de su derecho al voto porque incorpora la Ley de Prevención de Prácticas Engañosas e Intimidación a Votantes.
Traducción de Ana Lis Salotti.