Skip Navigation
  • Inicio
  • Nuestro trabajo
  • research reports
  • El “monitoreo continuo” de todas las personas con visas es imposible, pero la simple amenaza restringe la libre expresión
Resumen de expertos

El “monitoreo continuo” de todas las personas con visas es imposible, pero la simple amenaza restringe la libre expresión

La amenaza del gobierno de efectuar una vigilancia asistida por inteligencia artificial crea la ilusión de un control gubernamental total, que alienta a la autocensura y, en realidad, no mejora la seguridad.

Publicado: septiembre 24, 2025
  • El problema se exacerba cuando consideramos lo que estos sistemas están tratando de detectar mediante análisis automatizados de sentimientos: conceptos complejos como valores “antiestadounidenses” o posturas “antisemitas.”
  • Estas políticas socavarán nuestros valores fundamentales porque censuran la libertad de expresión y atrapan en su red a personas inocentes.

Suscríbete aquí al boletín informativo del Brennan Center en español

La administración Trump dijo que está reevaluando a los 55 millones de personas que tienen visa en los Estados Unidos en busca de cualquier posible incumplimiento que amerite su deportación, lo cual incluye sus publicaciones en las redes sociales. Esto marca una fuerte escalada en la vigilancia contra personas inmigrantes legales.

También representa un ataque contra la libertad de expresión, porque obligaría a millones de personas con visado a dejar de participar en protestas políticas, borrar publicaciones en sus redes sociales y evitar expresar opiniones que podrían considerarse “antiestadounidenses”, aun cuando la Primera Enmienda protege esta expresión de opiniones sin importar la ciudadanía de la persona.

El Departamento de Estado dijo que todas las personas que tienen visas en los EE. UU. estarán ahora sujetas a un “monitoreo continuo”, mediante el cual se vigilará a todas las personas titulares de visas para detectar cualquier indicio que señale que no pueden permanecer en el país. El gobierno desestimó las dificultades tecnológicas y prácticas de monitorear a decenas de millones de personas, que hacen imposible llevar a cabo una vigilancia universal precisa, pero, de todas formas, la sola amenaza de hacerlo modificará la conducta de las personas y erosionará las libertades civiles.

¿Qué significa realmente un “monitoreo continuo”?

En un monitoreo continuo tradicional, se vigila a las personas que tienen visas para detectar cualquier indicio que señale que no pueden permanecer en los Estados Unidos. Lo que es nuevo es la magnitud: este proceso ampliado ahora se aplicaría a los 55 millones de personas que tienen visas. No se trata de una verificación de antecedentes puntual.

En la práctica inmigratoria de EE. UU., el monitoreo continuo es un proceso dirigido por el Servicio de Ciudadanía e Inmigración de Estados Unidos (USCIS, por sus siglas en inglés) que reevalúa a solicitantes y titulares de visa en busca de datos nuevos y, para eso, verifica las listas de alerta del gobierno, los registros policiales, judiciales y de inmigración y, cada vez más, los contenidos en las redes sociales. Este es el proceso al que ahora, según dijo el Departamento de Estado, estarán sujetos los 55 millones de personas que tienen visas en el país.

La iniciativa de “detener y revocar” del Departamento de Estado, que la agencia dice que usa inteligencia artificial para evaluar y revocar las visas de estudiantes internacionales aparentemente pro-Hamas y otras personas extranjeras visadas, es otra forma de monitoreo continuo. Un análisis señala que, para llevar a cabo esta tarea, esta iniciativa combina esfuerzos de vigilancia en las redes sociales, rastreo de estatus inmigratorio y evaluaciones automatizadas de amenazas.

Además, a medida que las agencias modernizan sus sistemas de casos, están cerrando la brecha entre la detección de incidentes (cruces fronterizos, cambios de estatus y publicaciones detectadas) y la implementación de medidas de cumplimiento.

En abril, el Servicio de Inmigración y Control de Aduanas (ICE, por sus siglas en inglés) encargó el diseño de un prototipo de plataforma para el manejo de casos, llamada ImmigrationOS, a fin de cerrar la brecha entre la identificación y la deportación. Estos sistemas representan un cambio importante porque permiten abandonar las evaluaciones periódicas y comenzar a efectuar una vigilancia constante basada en incidentes.

Entre los componentes centrales de este aparato de vigilancia, se encuentran herramientas como Babel X, un software de análisis de textos y redes sociales potenciada por la inteligencia artificial (IA) que cuenta con la autorización de la Oficina de Aduanas y Protección Fronteriza (CBP, por sus siglas en inglés) desde, por lo menos, el año 2019.

Según documentos internos, se usa para “dar apoyo a la detección y monitoreo… [e] identificar posible información derogatoria y confirmatoria”, cuyos resultados se almacenan en sistemas de la CBP. Babel Street, la compañía que vende Babel X, publicita una capacidad de “búsqueda constante”, que, como si fuera un alerta de Google potenciado, monitorea constantemente fuentes en línea en busca de información nueva sobre la persona, incorpora fuentes de datos de dominio público y comercial, y produce alertas para sus clientes gubernamentales.

¿Qué puede hacer realmente un monitoreo continuo?

Si bien parece posible que una computadora pueda monitorear automáticamente a 55 millones de personas, la realidad es mucho más complicada. Los sistemas de vigilancia reales necesitan una infraestructura física gigante. Requieren de enormes salas de servidores, miles de analistas humanos y grandes sumas de dinero para funcionar.

Tomemos un solo ejemplo de referencia: el Centro de Datos de Utah de la Agencia de Seguridad Nacional (NSA, por sus siglas en inglés) fue construido para recolectar y analizar flujos masivos de comunicaciones y continúa la expansión de sus instalaciones en 2025, según una notificación del Cuerpo de Ingenieros del Ejército de los Estados Unidos. En los años de grandes sequías, ha consumido decenas de millones de galones de agua en un solo mes y, según informes previos, tiene un gasto anual de electricidad en el orden de los $40 millones.

Los obstáculos operativos también son significativos. A los gigantes tecnológicos con presupuestos ilimitados les cuesta monitorear sus propias plataformas correctamente. Rastrear cada movimiento digital de 55 millones de personas en toda la red requeriría de una infraestructura de vigilancia más grande de lo que existe actualmente, con la coordinación de docenas de agencias distintas que apenas pueden intercambiar datos.

Aunque la Casa Blanca esté pidiendo que se eliminen los “silos de datos” y a pesar de la vertiginosa consolidación que hizo el Departamento de Eficiencia Gubernamental (DOGE, por sus siglas en inglés) de la información personal de la población estadounidense —en contra de las denuncias de que viola la Ley de Privacidad (Privacy Act) y hace que la información sensible se vuelva vulnerable a ataques cibernéticos y filtración de datos privados—, estas dificultades siguen sin resolverse.

¿Por qué los algoritmos no pueden calificar correctamente las creencias?

El problema se exacerba cuando consideramos lo que estos sistemas están tratando de detectar mediante análisis automatizados de sentimientos: conceptos complejos como valores “antiestadounidenses” o posturas “antisemitas.” Estos términos no son categorías que una máquina pueda interpretar fácilmente; de hecho, indican sentimientos para los cuales no hay una definición concertada.

Si bien algunas herramientas automatizadas ofrecen análisis de sentimientos, esa función solo puede evaluar si el lenguaje utilizado suena positivo o negativo; no determina la postura de una persona hacia algo en particular, lo cual sería la pregunta correcta para responder a categorías como la de “antiestadounidense”. Estas herramientas detectan el tono y los patrones, pero no resuelven significados controversiales ni deducen creencias. El sarcasmo y la ironía suelen contradecir el significado literal de las palabras, lo cual debilita aún más la precisión de estas herramientas, una limitación documentada en varios estudios recientes sobre la detección del sarcasmo y el análisis de posturas.

Hasta las compañías que venden estas herramientas admiten que estos juicios dependen de contextos cambiantes, definiciones controversiales y datos incompletos. Cuando el Departamento de Seguridad Nacional (DHS, por sus siglas en inglés) sugirió el plan de usar algoritmos para calificar las “contribuciones positivas” de las personas solicitantes de visas y su “amenaza” a los “intereses nacionales”, 54 expertos técnicos escribieron una carta en la que le señalaban a la secretaria interina de Seguridad Nacional que “ningún método computacional puede brindar evaluaciones confiables u objetivas de las características” que el gobierno quería medir. Predijeron que este tipo de objetivos mal definidos produciría importantes falsos positivos que identificarían incorrectamente a personas que no presentaban ninguna amenaza. Al final, el DHS abandonó la propuesta.

El idioma y la cultura complican aún más el problema. Los sistemas entrenados en un inglés norteamericano tradicional califican erróneamente los dialectos y los mensajes que mezclan varios idiomas con mucha más frecuencia que cuando evalúan un inglés estándar. Los estudios sobre modelos que se usan para detectar insultos o publicaciones agresivas demuestran que estas herramientas automatizadas suelen calificar erróneamente palabras comunes del “inglés afroamericano” como “tóxicas” y se vuelven menos precisas cuando el dialecto o la plataforma cambian, lo cual es común en los espacios digitales que usan las comunidades de inmigrantes.

Además, gran parte de la expresión política contemporánea es multimodal, es decir que puede incluir memes, imágenes con texto y eufemismos codificados. Los clasificadores de texto solo (sistemas que leen las palabras, pero ignoran las imágenes) no contemplan el contexto de crucial importancia, tal como quién es el sujeto, si la oración es una broma o qué implica la imagen más allá de las palabras. Asimismo, los modelos multimodales (sistemas que evalúan tanto el texto como la imagen) siguen siendo débiles y poco confiables, a pesar de las investigaciones constantes.

Por último, la matemática de los eventos raros o muy infrecuentes indica que sí o sí habrá daños colaterales a gran escala. Si los casos verdaderos son extremadamente raros, el monitoreo de 55 millones de personas identificará, en su mayoría, a personas inocentes, incluso con herramientas eficaces, un riesgo que los expertos técnicos le advirtieron al DHS que podría ocurrir. Por eso, incluso un “pequeño” porcentaje de falsos positivos afectará a millones de personas: hasta un 5 % de falsos positivos en una evaluación de 55 millones de personas identificaría a 2.75 millones, el equivalente a toda la población de la ciudad de Chicago.

Las pruebas que ha efectuado el gobierno no han resuelto estos problemas. El inspector general del DHS en 2017 señaló que las pruebas piloto de monitoreo de redes sociales no tenían medidas claras de efectividad y no ameritaban ampliarse para el uso de todo el departamento; y difícilmente sean justificación suficiente como para automatizar la determinación de creencias.

Al fin y al cabo, la calificación de creencias no solo es una tarea técnicamente difícil. No está bien definida, es muy subjetiva y se presta a errores empíricos. Usar estos resultados para tomar medidas de inmigración alienta al uso de resultados imprecisos y sesgados a una escala nacional.

Cuando el miedo funciona: lo aprendido en los Estados Unidos y en el mundo

Las personas cambian lo que leen, buscan y dicen cuando creen que las están vigilando. Después de las revelaciones de Edward Snowden sobre los esfuerzos de vigilancia de la NSA en 2013, las vistas de artículos de Wikipedia sobre temas sensibles en materia de privacidad bajaron significativamente. Esa vacilación también se transmite en la expresión. Los estudios experimentales han señalado que, cuando la gente siente que el gobierno la está vigilando, se vuelve menos dispuesta a hablar en las redes sociales, aun cuando, en otras circunstancias, habrían participado, lo cual crea una “espiral de silencio”.

Este efecto intimidante también alcanza a la vida en comunidad y al derecho de asociación. Los estudios realizados en Uganda y Zimbabue han revelado tres consecuencias sistemáticas producto de la vigilancia del gobierno: la autocensura de la población; su reticencia a involucrarse con personas u organizaciones que creen que están bajo la mira; y una erosión de la confianza que dificulta los movimientos sociales y la acción colectiva.

Se han documentado patrones similares en comunidades sujetas a un monitoreo específico en los Estados Unidos. En la ciudad de Nueva York, por ejemplo, la vigilancia efectuada por el Departamento de Policía de Nueva York (NYPD, por sus siglas en inglés) contra las comunidades musulmanas hizo que eviten participar en grupos y conversaciones sensibles y se autocensuren en su vida religiosa y política.

De hecho, el simple hecho de sospechar la existencia de vigilancia puede ser suficiente para cambiar la conducta, más allá de que el estado esté vigilando realmente o no. En Zimbabue, grupos de protección describen cómo las personas usuarias de internet suelen practicar la autocensura debido a las amenazas y los arrestos ocurridos por ciertas publicaciones negativas; aun cuando las capacidades varíen, la posibilidad de ser objeto de vigilancia hace que la gente borre o no exprese su opinión.

En Uganda, el registro obligatorio de los números SIM, el monitoreo de las redes sociales y las frecuentes medidas de mano dura han provocado un efecto intimidatorio acumulativo: tanto opositores como usuarios comunes guardan silencio por miedo a represalias legales o profesionales.

En síntesis, estas tácticas fragmentadas tienen éxito precisamente porque son impredecibles. Al promocionar el uso de monitoreos “asistidos por la inteligencia artificial” e iniciativas de detectar y revocar visas, el gobierno está plantando la idea de que publicar ciertas opiniones, seguir a determinadas personas o grupos en las redes sociales o cambiar el estatus inmigratorio podría hacer sonar la alarma.

Las personas ciudadanas no pueden saber cuándo ni cómo se las está vigilando; por eso, se vigilan a sí mismas. Un sistema no necesita vigilar a toda la población para controlarla; solo necesita que la gente crea que puede hacerlo. Mientras tanto, el gobierno construye la tecnología necesaria para el futuro.

Por consiguiente, los riesgos que presentan las amenazas de expandir el monitoreo continuo basado en normas difusas son dos caras de la misma moneda. La amenaza de vigilancia es suficiente para cambiar la conducta sin que se esté realizando un monitoreo continuo. Además, el tipo de análisis que el gobierno dice que quiere hacer no funciona. Es el miedo lo que funciona, no los modelos. Estas políticas socavarán nuestros valores fundamentales porque censuran la libertad de expresión y atrapan en su red a personas inocentes.

Traducción de Ana Lis Salotti.