La Inteligencia Artificial (IA) redefine la vigilancia migratoria en Estados Unidos, te cuento todos los detalles en esta investigación
Contenido
La expansión tecnológica de las agencias de seguridad del gobierno Trump, especialmente del Departamento de Seguridad Nacional (DHS) y el Servicio de Inmigración y Control de Aduanas (ICE), está redefiniendo la vigilancia migratoria en Estados Unidos.
Este esfuerzo, en principio, buscaba mejorar la eficiencia operativa, pero se ha ido transformado en una red de monitoreo digital impulsada por inteligencia artificial, con capacidad para rastrear, identificar y clasificar a millones de personas dentro y fuera del territorio estadounidense.
Según el portal de investigaciones Visa Verge, un documento oficial del DHS tiene bajo su inventario más de 100 funciones activas de IA al interior de la entidad: 59 son liderados por la agencia de Aduanas y Protección Fronteriza de Estados Unidos (CBP), 23 por (ICE) y 18 por el Servicio de Ciudadanía e Inmigración de los Estados Unidos (USCIS), estos casos abarcan vigilancia fronteriza, detección de fraude, procesamiento de visados, y screening de asilo, entre otros.
De acuerdo con el AI Use Case Inventory, ICE opera actualmente más de doce sistemas de inteligencia artificial (que se aplican en 23 procedimientos) y evalúa otra lista de aplicaciones emergentes. Entre ellas figuran tecnologías de reconocimiento facial, análisis predictivo, seguimiento móvil, monitoreo de redes sociales y chatbots automatizados capaces de procesar información migratoria.
La IA ya está presente en todo el sistema y es clave en muchos de los pasos que deciden quién se queda, entra o sale de los Estados Unidos. Por esta razón, me di a la tarea de analizar las capacidades de cada una y cómo impacta en la vida diaria de los migrantes.
Entre las herramientas que ya funcionan y apoyan la operación están: PenLink, capaz de relacionar datos de redes sociales con geolocalizaciones derivadas de teléfonos móviles; ImmigrationOS, que centraliza información biométrica y migratoria en tiempo real; y Mobile Device Analytics, que es capaz de extraer patrones de movimiento a partir de dispositivos incautados.
Herramientas de IA que transforman la vigilancia migratoria en EE. UU.
PenLink (Tangles & Webloc) tiene como principal tarea la vigilancia social y la geolocalización cruzada. Esta plataforma es utilizada por la división de Investigaciones de Seguridad Nacional (HSI) de ICE e integra herramientas como Tangles y Webloc que permiten vincular datos de redes sociales con información de ubicación obtenida de teléfonos móviles.
En la práctica, este sistema puede mapear relaciones personales, rutas de desplazamiento y patrones de comportamiento a partir de publicaciones, registros de llamadas y datos comerciales de geolocalización.
Esto implica que personas que se encuentran en procesos migratorios podrían ser monitoreadas sin saberlo, las autoridades pueden revisar actividades digitales no vinculadas a delitos. Esto daría mayor capacidad a ICE para rastrear comunidades o “redes” de migrantes.
PenLink: la herramienta que puede mapear la vida digital de una inmigrante como María
María, una madre mexicana de 32 años, vive en California desde hace ocho años sin documentos. Trabaja en cultivos y todos los días comparte en Facebook fotos de su hijo camino a la escuela, entre otras historias personales. También usa WhatsApp para coordinar trabajos y recibir ubicaciones de nuevos sitios a los que puede ir a trabajar.
Un día, María acepta una invitación a un grupo de Facebook para apoyar a otras madres migrantes en su barrio. Allí comparte la dirección de un parque donde usualmente se reúnen y comenta que siempre pasa por la misma ruta después del trabajo para evitar tráfico.
Aunque María no tiene antecedentes criminales ni está involucrada en actividades ilegales, herramientas como PenLink podrían:
- Cruzar sus publicaciones de redes sociales con datos comerciales de ubicación obtenidos de aplicaciones de su teléfono.
- Identificar los lugares que frecuenta: su casa, la escuela de su hijo, las casas donde trabaja.
- Detectar personas con las que se comunica frecuentemente, incluso otras madres indocumentadas.
- Construir un mapa de su rutina diaria y red de apoyo, sin que ella tenga conocimiento de ello.
María nunca tuvo contacto directo con autoridades, pero su vida digital (publicaciones, mensajes y datos de ubicación) bastó para convertirla en un perfil rastreado. Esto genera un ambiente donde el miedo no solo existe en la calle o en el trabajo, sino también online, y donde cada publicación o mensaje puede sentirse como un riesgo.
ImmigrationOS: gestión algorítmica de deportaciones
Esta tecnología le permite a ICE tener una “visión en tiempo real” del sistema migratorio. La plataforma integra bases de datos de casos administrativos, biometría, antecedentes criminales y estatus migratorio, utilizando algoritmos para priorizar personas consideradas de “alto interés”, por ejemplo, aquellas a las que se les ha expirado su visa o están en proceso de deportación voluntaria.
El riesgo para el migrante es el exceso en la automatización de decisiones apoyada por algoritmos lo que podría generar riesgos al perfilarlos de manera errónea y clasificarlos negativamente sin posibilidad de revisar ni impugnar su caso.
José, y cómo ImmigrationOS terminó marcándolo
José, mexicano de 38 años, vive en Texas con una visa de trabajo agrícola que expiró hace unos meses. Está en proceso de deportación voluntaria mientras que su abogado de inmigración intenta una alternativa legal para que pueda quedarse.
Él nunca descargó ni “aceptó” ninguna app migratoria. Pero aun así, ImmigrationOS terminó rastreándolo. ¿Cómo? Cuando José presentó su solicitud inicial de visa, dejó huellas, dirección, historial laboral y datos biométricos. Cuando su visa expiró, su caso entró al sistema de ICE y una vez solicitó la salida voluntaria, su expediente se actualizó nuevamente.
Con cada uno de esos pasos, sus datos pasaron automáticamente a ImmigrationOS, que conecta:
- Bases de datos de visas
- Registros de inmigración
- Biometría
- Historial de entradas y salidas
- Órdenes y procedimientos migratorios activos
Es decir, no fue José quien encontró la app; fue la app la que lo encontró a él porque forma parte del ecosistema migratorio. Una mañana, sin que nadie le avisara, el algoritmo clasificó su expediente en un nivel más alto de prioridad porque su visa expiró, aún estaba en el país y su proceso administrativo está activo. Aunque no cometió ningún delito, ImmigrationOS lo marcó como caso “urgente”, basado en criterios automáticos, no humanos.
Social Media Surveillance Team: monitoreo 24/7 de redes sociales
ICE proyecta reclutar un equipo de vigilancia de redes sociales entre analistas y contratistas especializados en OSINT (Open Source Intelligence) con el objetivo de rastrear publicaciones en redes sociales como: Facebook, TikTok, Instagram o YouTube.
Esta tecnología usa herramientas de análisis de sentimiento, reconocimiento facial y de texto para identificar posibles amenazas, ubicaciones o vínculos entre personas migrantes. Las personas no nacionalizadas podrían verse expuestas por su actividad digital ya que contenidos públicos o mensajes sin importancia podrían ser interpretados como “indicios” de riesgo.
Ana y el “ecosistema digital sospechoso”
Ana, una joven salvadoreña con TPS que vive en California, usa TikTok para aprender inglés y Facebook para seguir páginas de su comunidad. En medio del ambiente actual en Estados Unidos, donde las redes sociales están bajo escrutinio por desinformación, protestas y discursos políticos, Ana publica un video hablando de su experiencia como migrante y de la importancia de proteger a quienes han construido una vida en el país. No utiliza lenguaje agresivo ni hace llamados a movilización; simplemente cuenta su historia. Sin embargo, el nuevo equipo de monitoreo social de ICE, con herramientas de análisis de sentimiento, reconocimiento facial y rastreo de redes, detecta su publicación por incluir términos como “migrante” y “derechos” en un momento de alta sensibilidad política.
El sistema cruza su nombre con bases públicas y nota que su estatus es temporal. Luego identifica su rostro en fotos de reuniones comunitarias y la etiqueta para “observación adicional”, interpretando erróneamente que podría formar parte de una red activista más amplia. Ana nunca será notificada. No hizo nada ilegal, pero ahora está bajo un perfil digital de riesgo que podría influir en futuras revisiones de su estatus migratorio. En este entorno, la vida digital de los migrantes deja de ser un espacio personal para convertirse en un terreno donde una opinión cotidiana puede ser vista por un algoritmo como una señal de alerta.
Mobile Device Analytics for Investigative Data: trazador de movimientos
Mobile Device Analytics puede extraer y analizar datos de teléfonos móviles incautados bajo orden judicial. El sistema agrupa información de geolocalización, contactos y registros de movimiento para detectar patrones (por ejemplo, de lugares donde varios dispositivos coinciden).
En contextos migratorios puede utilizarse para identificar rutas de tránsito, contactos o familiares.
Video Analysis Tool (VAT): reconocimiento facial
La herramienta VAT (Video Analysis Tool) tiene la capacidad de analizar videos y extraer rostros, comparándolos con bases biométricas o con información compartida por otras agencias.
Aunque el DHS reporta que se encuentra “inactiva”, su registro muestra el interés de implementar la visión computarizada en tareas de identificación masiva.
Este tipo de sistemas puede usarse para identificar manifestantes, testigos o personas en videos públicos, incluso sin su consentimiento, afectando derechos y libertad de expresión de comunidades migrantes.
Biometric Check-in for ATD-ISAP (SmartLINK): control facial remoto
Esta tecnología ya se implementa en el marco del programa de Alternativas a la Detención (ATD) y permite a ciertos inmigrantes estar en libertad mientras se resuelve su caso. ICE utiliza la aplicación SmartLINK para que las personas realicen check-ins faciales a través del celular.
El sistema compara la imagen del rostro del usuario con la almacenada en la base de datos del DHS, verificando su identidad en tiempo real. Aunque supuestamente es una alternativa “humanitaria” a la detención, en la práctica es una forma de vigilancia constante y digitalizada pues los migrantes deben cumplir con notificaciones frecuentes y su ubicación está expuesta constantemente. Esto puede generar estrés y sensación de control permanente.
GRAPH 2
Estas tecnologías configuran un moderno ecosistema de vigilancia migratoria digital que le permite a ICE expandir su operación y control en momentos en que la prioridad para el gobierno es la política migratoria.
Si bien algunas de estas aplicaciones buscan optimizar tareas administrativas, otras, como lo detallé en los ejemplos, podrían afectar directamente el debido proceso y los derechos civiles de las personas que están bajo custodia o supervisión migratoria.
Cómo la inteligencia artificial ha transformado la vigilancia migratoria en EE. UU.
La aplicación de la IA y tecnologías automatizadas en asuntos de inmigración en Estados Unidos no es nueva y ha evolucionado bajo distintas administraciones, pasó de la identificación a la predicción, dejando de ser solo un apoyo técnico (procesar huellas o fotos) a una herramienta para anticipar riesgos, clasificar inmigrantes y automatizar decisiones administrativas.
Actualmente los programas de supervisión migratoria integran geolocalización, análisis de comportamiento y reconocimiento facial, consolidando un modelo de “vigilancia 360” enmarcada en la seguridad nacional.
Vale la pena resaltar que durante el gobierno de Barack Obama (2009 – 2017) se consolidó la infraestructura tecnológica, que luego permitiría el uso de la inteligencia artificial en asuntos migratorios. Para 2011 el DHS expandió el sistema IDENT (Automated Biometric Identification System), que integraba huellas y fotografías de millones de personas en procedimientos migratorios y fronterizos.
Además, se establecieron programas de interoperabilidad de datos entre agencias (FBI, ICE, CBP, USCIS), abriendo el camino a modelos de análisis masivo de información.
Entre el 2017 y el 2021 (durante la primera administración de Donald Trump) hubo una expansión de la vigilancia automatizada marcando un punto de inflexión. Allí se empezó a hablar de la IA y la analítica predictiva integrada formalmente a la política de inmigración y el control fronterizo.
Para 2018, el DHS lanzó el proyecto HART (Homeland Advanced Recognition Technology), destinado a reemplazar IDENT con un sistema biométrico basado en IA capaz de procesar rostros, iris, voz, tatuajes y patrones de movimiento. También se comenzaron a llevar a cabo programas piloto de reconocimiento facial en aeropuertos y en puntos de fronteras terrestres por parte de (CBP), con algoritmos entrenados para confirmar la identidad de los viajeros.
Durante la administración Biden (2021–2024) se dio lo que podríamos llamar una regulación y expansión silenciosa. En este periodo el enfoque principal cambió, ya no solo se trataba de las funciones de la IA como tal, sino de la forma en la que se estaba usando, en la responsabilidad y la ética detrás de los usos.
En 2022, el DHS reconoció 43 casos de uso de IA dentro del Departamento, varios asociados a temas como: gestión de fronteras, biometría y detección de fraudes migratorios.
Además, ICE y CBP incrementaron el uso de herramientas de carácter privado como (Palantir, Giant Oak, Clearview AI) para apoyo analítico, validación de identidad y predicción de riesgo migratorio. También se implementaron algoritmos de monitoreo remoto especialmente en programas de supervisión alternativa a la detención (ATD), introduciendo la IA en la vigilancia de personas migrantes con libertad condicional.
ICE multiplica sus contratos en inteligencia artificial y biometría
Según el diario The Washington Post, ICE ha suscrito múltiples contratos en los últimos meses para ampliar la vigilancia digital, reportando adquisiciones de herramientas para reconocimiento facial, rastreo de iris y de hackeo de smartphones, entre otros. etc.
La investigación adelantada por el diario establece que las obligaciones contractuales de ICE con corte a septiembre alcanzaron los $1,4 mil millones, la mayor suma mensual en por lo menos 18 años.
Herramientas de IA en evaluación o pre-despliegue para vigilancia migratoria
De acuerdo con el AI Use Case Inventory publicado por el DHS en el mes de julio, la agencia tiene por lo menos en fase de pre-despliegue, desarrollo, adquisición o pruebas 4 programas o mecanismos tecnológicos que espera implementar o articular para ampliar la vigilancia digital.
- Machine Learning Translation Technology Initiative, es un sistema de traducción automática en tiempo real (voz-texto, texto-voz, voz-voz) que podría facilitar la comunicación con personas que no dominan el inglés. Sin embargo, los errores de traducción o sesgos culturales podrían causar malentendidos complejos, sobre todo en entrevistas o procedimientos sensibles.
- Title III Semantic Search and Summarization for Translated Content, es un sistema que usa inteligencia artificial y procesamiento de lenguaje natural para analizar textos traducidos, detectar patrones, personas o posibles fraudes en investigaciones. El impacto para el migrante podría estar asociado a posibles errores de interpretación o traducción, vinculando injustamente a personas con investigaciones o perfiles de riesgo.
- Policy Analyst Assistant, se trata de un asistente virtual que busca normativas, regulaciones y respuestas a preguntas frecuentes usando modelos de lenguaje generativos. Aunque no actúa directamente sobre personas, podría influir en políticas migratorias o decisiones institucionales basadas en interpretaciones erróneas o sesgadas de la normativa.
- Chatbots y asistentes administrativos internos, son herramientas de atención automatizada programadas para responder preguntas, gestionar documentos o guiar trámites. Aunque facilitan la atención, podría inducir a errores en trámites o generar falsas expectativas sobre procesos migratorios si la información es incompleta o incorrecta.
Proyectos sobre IA y vigilancia digital en manos del congreso de EE. UU.
Actualmente, el congreso de Estados Unidos da trámite a algunos proyectos que relacionan el uso de inteligencia artificial (IA) o vigilancia digital en la gestión gubernamental. Un proceso que inevitablemente roza las políticas migratorias y los sistemas de control fronterizo.
Por lo menos cuatro proyectos legislativos vinculados al Departamento de Seguridad Nacional (DHS), ICE y CBP han sido introducidos en la actual legislatura: el AI PLAN Act (H.R. 2152), el PROACTIV Act (S. 2381), la Ley de Protección contra la IA Adversaria Extranjera (S. 1638) y la Ley de Alfabetización e Inclusión en IA (H.R. 3210). Aunque no son iniciativas enfocadas exclusivamente en migración, todas buscan regular o habilitar el uso de inteligencia artificial en procesos de vigilancia, verificación de identidad y análisis predictivo.
Entre ellos destaca el AI PLAN Act, que obliga al DHS, al Departamento de Justicia y otras agencias a diseñar estrategias para mitigar riesgos asociados al uso de IA en operaciones sensibles. Esto incluye la identificación biométrica y los sistemas de monitoreo digital aplicados a migrantes bajo custodia o en libertad condicional. A su vez, el PROACTIV Act profundiza en la protección de datos y transparencia algorítmica, con posible impacto en las bases biométricas del DHS, mientras que otra iniciativa prohíbe tecnologías de IA adversaria de origen extranjero.
En conjunto, estos esfuerzos reflejan una intención del Congreso de fortalecer la infraestructura legal y tecnológica que permite al DHS expandir el uso de IA en el ámbito migratorio. Sin embargo, la discusión aún deja un pendiente central: ¿qué garantías de transparencia, fiscalización y rendición de cuentas existirán para evitar abusos y proteger los derechos de las personas sometidas a estas tecnologías?
Ciberseguridad y uso responsable de la IA en el foco
En el marco del mes nacional de la concientización sobre ciberseguridad, la Casa Blanca emitió una proclamación recordando que a principios de este año el gobierno Trump firmó una Orden Ejecutiva que buscaba fortalecer la ciberseguridad de Estados Unidos centrándose en protecciones críticas contra ciber amenazas extranjeras y en mejorar las prácticas tecnológicas seguras.
Entre otras medidas, esta iniciativa daba la orden a los miembros del gobierno Federal de impulsar el desarrollo de software seguro, dirigir la adopción de los protocolos de cifrado más recientes y reorientar los esfuerzos de ciberseguridad de la inteligencia artificial hacia la identificación y gestión de vulnerabilidades, en lugar de censurar la expresión legítima del pueblo estadounidense.
Sin embargo, la expansión tecnológica y el desarrollo de más vigilancia digital en Estados Unidos, no ha estado exenta de críticas pues una auditoría de la Oficina del Inspector General del DHS (enero 2025) advierte que, aunque existen políticas de gobernanza sobre IA, el departamento carece de mecanismos de control consistentes, reportes públicos transparentes y auditorías independientes sobre cómo se usan estas herramientas tecnológicas.
Por su parte organizaciones como Electronic Frontier Foundation (EFF) y el Center for Privacy and Technology de Georgetown Law han lanzado alertas sobre una posible falta de garantías en torno al uso de datos biométricos y de redes sociales. Afirman que los riesgos son múltiples ya que se pueden presentar errores en algoritmos de reconocimiento facial que afectan de forma desproporcionada a personas de piel oscura, activistas y periodistas, y que el uso indebido de dicha información puede generar “listas de riesgo” migratorio.
Todo esto se suma a algunos estudios que revelan que hay más personas preocupadas que entusiasmadas por el uso de la IA, pues según el centro de investigaciones Pew Research la preocupación por la inteligencia artificial es especialmente común en Estados Unidos, Italia, Australia, Brasil y Grecia, donde aproximadamente la mitad de los adultos afirman estar más preocupados que entusiasmados.