La inteligencia artificial (IA) está en boca de todos y su aplicación en el ámbito legal no es una excepción. La promesa de eficiencia y objetividad que ofrece resulta muy atractiva para el sistema de justicia. Sin embargo, surgen historias inquietantes sobre sesgos raciales que afectan a los acusados y errores que conducen a la detención de personas inocentes.
La raíz de estos problemas suele estar en los sesgos de los algoritmos que impulsan los sistemas de IA. No obstante, el problema va más allá de la tecnología, también implica los datos con los que se entrenan estos sistemas, los objetivos establecidos, su aplicación y la interpretación de los resultados. En resumidas cuentas, se trata de una cuestión que también concierne a nosotros mismos.
Aquí es donde entra en juego la Tecnología de Interés Público (Public Interest Technology, PIT), que puede entenderse como una mentalidad esencial para seleccionar, implementar y evaluar sistemas de IA de manera justa, equitativa y centrada en el ser humano. Este enfoque se centra en las decisiones más cruciales para proteger a las personas de los daños ocasionados por el sesgo y la discriminación.
La PIT puede ser vista como un marco orientador que apoya el desarrollo, implementación y gobernanza de la IA en el sistema de justicia penal para garantizar la equidad, transparencia y responsabilidad. Según Darren Walker, presidente de la Fundación Ford, PIT se enfoca menos en la tecnología y más en la ética, los derechos humanos y la justicia social. Su objetivo es asegurarse de que la tecnología sirva a la humanidad y no al revés.
Esto implica diseñar, usar y regular la tecnología para beneficiar a todas las personas, especialmente a aquellas de grupos vulnerables o históricamente marginados. Se trata de garantizar que todos tengan voz en las decisiones tecnológicas que afectan sus vidas.
La IA ya se está utilizando en el sistema de justicia penal para identificar sospechosos, predecir el riesgo de reincidencia y sugerir sentencias criminales. Aunque estas herramientas prometen mejorar los resultados de justicia y afectar positivamente a la sociedad, también pueden perpetuar la discriminación si no se aplican con cuidado. Según la ACLU, ha habido al menos siete arrestos erróneos en Estados Unidos debido a la dependencia policial en resultados incorrectos de reconocimiento facial. En casi todos estos casos, las personas arrestadas eran negras. Además, herramientas como COMPAS han sido criticadas por categorizar injustamente a los hombres negros como de alto riesgo de reincidencia en comparación con los hombres blancos. A menudo, estas herramientas son opacas, haciendo que sus procesos de toma de decisiones sean poco claros o desconocidos.
El sesgo algorítmico en el reconocimiento facial y las herramientas de predicción de reincidencia ocurre debido a datos sesgados, algoritmos mal diseñados y conjuntos de características problemáticas, así como la falta de orientación humana y estructuras de gobernanza adecuadas. PIT enfatiza la gestión humana continua de estos sistemas para reconocer, abordar y eliminar los sesgos.
En Nueva Zelanda, investigadores están desarrollando modelos transparentes para evaluar casos de agresión en tribunales penales. A diferencia del programa COMPAS, estos modelos de IA son transparentes y abiertos al escrutinio público, facilitando la identificación y corrección de sesgos, y previniendo daños. Esto se alinea con los principios de transparencia y responsabilidad de PIT, cruciales para asegurar resultados justos y la confianza de la sociedad en estos sistemas.
Además de la transparencia, PIT resalta la supervisión humana. Tener a un humano en el bucle es esencial para garantizar la equidad y la responsabilidad. La IA no puede reemplazar el juicio humano, especialmente en entornos de alto riesgo como el sistema de justicia. Los seres humanos deben tener siempre el poder de anular decisiones basadas en IA, lo que crea responsabilidad para el resultado final. Aunque los jueces humanos también pueden ser sesgados, un juez injusto puede ser criticado y potencialmente removido, algo imposible de hacer con un algoritmo.
PIT no es una solución mágica. Las mentalidades por sí solas no resolverán todos los problemas que plantea la IA a la sociedad. Sin embargo, este enfoque nos ayuda a implementar sistemas de IA que promuevan la justicia y la equidad, especialmente en áreas sensibles como el sistema de justicia penal.
Al defender valores como la equidad, la transparencia y la supervisión humana, PIT puede minimizar los riesgos de la IA y garantizar que esta tecnología poderosa sirva a la sociedad en su conjunto. A medida que la IA se entrelaza cada vez más con nuestras vidas, PIT será aún más crucial. Trabajando en conjunto: tecnólogos, legisladores, defensores y el público, podemos construir un futuro donde la IA sea una fuerza para el bien y no para el mal.
Después de todo, la tecnología siempre debe ser una herramienta para la justicia, no un arma de discriminación.