EFF & 140 otras organizaciones piden el fin del uso de IA en las decisiones de inmigración

EFF, Just Futures Law y otros 140 grupos han enviado una carta al Secretario Alejandro Mayorkas para que el Departamento de Seguridad Nacional (DHS) deje de utilizar herramientas de inteligencia artificial (IA) en el sistema de inmigración. Durante años, EFF ha estado monitoreando y advirtiendo sobre los peligros de la vigilancia automatizada y la llamada “IA mejorada” en la frontera entre EE.UU. y México. Como hemos dejado claro, la toma de decisiones algorítmica nunca debe tener la última palabra sobre si una persona debe ser vigiladaarrestadadenegada la libertad, o, en este caso, es merecedora de un refugio seguro en Estados Unidos.

La carta está firmada por un amplio abanico de organizaciones, desde organizaciones sin ánimo de lucro de defensa de las libertades civiles a grupos de defensa de los derechos de los inmigrantes, pasando por organismos de control de la responsabilidad gubernamental y organizaciones de la sociedad civil. Juntos, declaramos que el uso que hace el DHS de la IA, definida por la Casa Blanca como “un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales”, parece violar las políticas federales que rigen su uso responsable, especialmente cuando se utiliza como parte de la toma de decisiones relativas a la aplicación de la ley y las adjudicaciones en materia de inmigración.

Lea la carta aquí.

La carta destacaba las conclusiones de un bombazo informe publicado por Mijente y Just Futures Law sobre el uso de la IA y la toma de decisiones automatizada por parte del DHS y sus subagencias, el Servicio de Ciudadanía e Inmigración de EE.UU. (USCIS), el Servicio de Inmigración y Control de Aduanas (ICE) y el Servicio de Aduanas y Protección de Fronteras (CBP). A pesar de las leyes, órdenes ejecutivas y otras directivas para establecer normas y procesos para la evaluación, adopción y uso de la IA por parte del DHS -así como la promesa del DHS de que “no utilizará la tecnología de IA para permitir un seguimiento, vigilancia o rastreo sistémico, indiscriminado o a gran escala de las personas”-, la agencia se ha apoyado aparentemente en las lagunas de la seguridad nacional, la recopilación de inteligencia y la aplicación de la ley para evitar el cumplimiento de estos requisitos. Esto socava por completo cualquier supuesto intento por parte del gobierno federal de utilizar la IA de forma responsable y contener el hábito de la tecnología de simplemente digitalizar y acelerar las decisiones basadas en sesgos y prejuicios preexistentes;

Aunque no se ha demostrado la eficacia de la IA, el DHS ha incorporado frenéticamente la IA a muchas de sus funciones. Estos productos son a menudo el resultado de asociaciones con proveedores que han impulsado agresivamente la idea de que la IA hará que el procesamiento de la inmigración sea más eficiente, más objetivo y menos sesgado

Sin embargo, las pruebas discrepan o, en el mejor de los casos, son contradictorias;

Como señala el informe, los estudios, incluidos los realizados por el gobierno, han reconocido que la IA a menudo ha empeorado la discriminación debido a la realidad de “basura dentro, basura fuera”. Este fenómeno fue visible en el uso por parte de Amazon-y el posterior desguace-de la IA para filtrar currículos, que destacaba a los solicitantes masculinos con más frecuencia porque los datos en los que se había entrenado el programa incluían más solicitudes de hombres. Los mismos escollos surgen en los productos policiales predictivos, algo a lo que la FEP se opone categóricamente, que a menudo “predicen” delitos con más probabilidades de ocurrir en barrios negros y marrones debido a los prejuicios incrustados en los datos históricos de delincuencia utilizados para diseñar ese software. Además, las herramientas de IA suelen ser deficientes cuando se utilizan en contextos complejos, como el pantano que es la ley de inmigración;

A pesar de estas graves preocupaciones, el DHS ha incorporado la toma de decisiones de IA en muchos niveles de su funcionamiento sin tomar las medidas necesarias para examinar adecuadamente la tecnología. Según el informe, la tecnología de IA forma parte del proceso de USCIS para determinar la elegibilidad para beneficios de inmigración o alivio, la credibilidad en las solicitudes de asilo, y la seguridad pública o el nivel de amenaza para la seguridad nacional de un individuo. El ICE utiliza la IA para automatizar su toma de decisiones sobre vigilancia electrónica, detención y deportación;

Al mismo tiempo, existe una preocupante falta de transparencia en relación con esas herramientas. Necesitamos urgentemente que el DHS rinda cuentas por su adopción de programas de IA opacos y no probados, promulgados por quienes tienen un interés financiero en la proliferación de la tecnología. Hasta que el DHS no aborde adecuadamente las preocupaciones planteadas en la carta y el informe, debería prohibirse al Departamento el uso de herramientas de IA;


El Tribuno del Pueblo le trae artículos escritos por individuos y organizaciones, junto con nuestros propios reportajes. Los artículos firmados reflejan los puntos de vista de las y los autores. Los artículos sin firmar reflejan los puntos de vista del consejo editorial. Por favor, dé crédito a la fuente al compartir: tribunodelpueblo.org. Todos somos voluntarios, sin personal remunerado. Haga una donación en http: //tribunodelpueblo.org/ para seguir ofreciéndoles las voces del movimiento porque ningún ser humano es ilegal.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

ARTÍCULOS RELACIONADOS

SUSCRÍBETE

INFÓRMATE Y TOMA ACCIÓN

Nuestra voz es única, nuestra perspectiva sin filtrar. Únase a nuestro boletín y manténgase actualizado sobre nuestro reportaje original y periodismo para la gente. Entregado a usted.

VISITE NUESTRO SITIO HERMANO

ÚLTIMOS ARTÍCULOS