Un grupo de 141 organizaciones, entre las que se incluyen la Electronic Frontier Foundation (EFF), Just Futures Law y diversas entidades defensoras de los derechos civiles, ha solicitado al Secretario de Seguridad Nacional, Alejandro Mayorkas, que el Departamento de Seguridad Nacional (DHS) deje de usar herramientas de inteligencia artificial (IA) en su sistema de inmigración. Esta solicitud se formalizó mediante una carta enviada al funcionario, en la que expresan su preocupación por los inconvenientes y peligros asociados con la vigilancia automatizada en la frontera entre Estados Unidos y México.
La EFF lleva años señalando que las decisiones algorítmicas no deben tener la autoridad final en asuntos críticos como la vigilancia, arrestos o la concesión de asilo. En su carta, las organizaciones argumentan que el DHS está incumpliendo las políticas federales sobre el uso responsable de la IA, principalmente en decisiones relacionadas con la ley de inmigración. Según la definición proporcionada por la Casa Blanca, la IA es un sistema que puede hacer predicciones, recomendaciones o decisiones basadas en objetivos humanos, pero la implementación de estas tecnologías por el DHS no ha seguido los estándares establecidos.
Un informe alarmante, publicado por Mijente y Just Futures Law, se centra en el uso de la IA y la toma de decisiones automatizadas por parte del DHS y sus dependencias. A pesar de las promesas de no utilizar la tecnología de IA para vigilancia indiscriminada, el informe revela que la agencia ha recurrido a estas herramientas para justificar incumplimientos, invocando frecuentemente excepciones de seguridad nacional.
El auge del uso de la IA en el DHS plantea serios cuestionamientos sobre su eficacia y las potenciales consecuencias discriminatorias. Ejemplos previos, como el sistema de selección de currículums de Amazon, han demostrado que los algoritmos pueden amplificar sesgos preexistentes en los datos. La tecnología predictiva también ha sido problemática, enfocándose a menudo en comunidades de color y perpetuando desigualdades raciales.
El informe subraya además que herramientas de IA están siendo utilizadas por el DHS en procesos esenciales, como la evaluación de solicitudes de asilo y la gestión de detenciones y deportaciones por parte de ICE, sin una evaluación adecuada de su impacto. La falta de transparencia en el uso de estas tecnologías plantea preocupaciones significativas sobre su adopción y los intereses financieros detrás de su promoción.
Por todo esto, las organizaciones que firmaron la carta exigen urgentemente que el DHS asuma la responsabilidad por sus decisiones tecnológicas y detenga el uso de herramientas de IA hasta que se resuelvan los problemas señalados. La misiva insta al departamento a abordar adecuadamente las inquietudes planteadas, argumentando que solo así se puede garantizar un uso justo y ético de la inteligencia artificial en asuntos de inmigración.