En un año marcado por avances tecnológicos, el uso de tecnologías de toma de decisiones algorítmicas (ADM, por sus siglas en inglés) ha despertado un debate intenso sobre su impacto en la sociedad. La Electronic Frontier Foundation (EFF) ha puesto el foco en los potenciales riesgos que estas herramientas representan para los derechos humanos, alertando sobre su creciente influencia en sectores esenciales como la seguridad, la salud y el acceso a vivienda.
A lo largo de 2024, las ADMs, que se basan en datos y modelos predefinidos para tomar decisiones prácticamente sin intervención humana, han sido integradas por propietarios, empleadores y las fuerzas del orden, entre otros. Este fenómeno ha reavivado las preocupaciones respecto a la posible automatización de injusticias sistémicas, sobre todo porque los algoritmos que sustentan estas tecnologías muchas veces replican y amplifican sesgos ya existentes en los datos con los que son entrenados.
La EFF ha emitido múltiples informes y comentarios que denuncian cómo el uso de estas herramientas puede socavar la transparencia y dificultar la rendición de cuentas. Uno de los ejemplos más inquietantes es la implementación de inteligencia generativa para crear informes policiales a partir de grabaciones de cámaras corporales, un enfoque que según la organización podría comprometer la claridad y objetividad de la información.
El sector privado tampoco ha quedado exento de críticas. Empresas están utilizando ADMs para decisiones críticas que afectan el acceso de los individuos a empleos y servicios esenciales, generando incomodidad y preocupación entre los ciudadanos. Mientras tanto, se observa que los despidos se mantienen constantes a pesar de que las expectativas de aumento de productividad a través de las ADM no se están cumpliendo.
Sin embargo, las ADM también ofrecen oportunidades para mitigar decisiones discriminatorias y garantizar el cumplimiento de leyes de derechos civiles, aunque estas potencialidades requieren de un marco regulatorio robusto que vele por un uso ético y responsable. La EFF aboga por mantener un enfoque centrado en la privacidad y cautela, al mismo tiempo que se reconoce el potencial positivo de estas tecnologías bajo un enfoque que priorice el bienestar humano.
En este contexto, los debates sobre la inteligencia artificial han alcanzado un punto álgido, y de acuerdo con los expertos consultados por la EFF, sin una revisión crítica y sustancial de su aplicación, el costo social podría superar los beneficios esperados. La conversación sobre cómo integrar la tecnología en nuestras vidas de manera equitativa y con responsabilidad continua, con la urgencia de encontrar un equilibrio que prevenga su uso perjudicial para la sociedad.