La Casa Blanca ha lanzado un nuevo «Plan de Acción sobre la IA», focalizándose en combatir lo que denomina «IA woke». Este término se refiere a los modelos de lenguaje que no se alinean con las posturas del gobierno en temas como el cambio climático y el género. El plan busca además regular la generación de contenido racista, sexista y discursos de odio.
Junto a esta iniciativa, se ha promulgado una orden ejecutiva titulada «Prevención de la IA Woke en el Gobierno Federal». Esta orden obliga a las empresas tecnológicas con contratos federales a asegurar que sus modelos de lenguaje carecen de «sesgos ideológicos», como diversidad, equidad e inclusión. Sin embargo, esta medida podría restringir el desarrollo de estos modelos como herramientas de expresión y acceso a la información.
La cuestión de los sesgos en inteligencia artificial no es nueva. Los modelos tienden a discriminar debido a los datos con los que son entrenados. Si estos conjuntos de datos presentan prejuicios, la IA los replicará. Un ejemplo de esto son las herramientas de «policía predictiva», que suelen sugerir vigilancia excesiva en barrios predominantemente negros.
Los modelos generativos también enfrentan estas problemáticas. Algunos estudios han demostrado que los modelos de lenguaje asocian personas de color con situaciones criminales de manera desproporcionada, mientras que las imágenes generadas de jueces muestran una prevalencia masculina no representativa de la realidad.
El uso de IA sesgada en decisiones gubernamentales tiene consecuencias reales para los afectados, impactando su libertad y acceso a recursos. La proyección de un aumento en el uso de estos modelos por parte de agencias gubernamentales podría perpetuar injusticias.
Se requiere implementar salvaguardias para evitar que se adquieran herramientas de IA nocivas. La eliminación de límites que protegían los derechos civiles podría aumentar los abusos. Estas nuevas regulaciones también podrían hacer que los modelos públicos se vuelvan menos efectivos.
Expertos en derechos digitales insisten en la necesidad de proteger los derechos ciudadanos frente a decisiones influenciadas por modelos sesgados, argumentando en contra del uso de algoritmos en decisiones críticas.