En una movida reciente que marca un nuevo enfoque hacia la inteligencia artificial (IA) en Estados Unidos, la administración vigente ha introducido un Plan de Acción sobre IA, buscando liberar el potencial innovador del sector, a la par que elimina agendas sociales preexistentes. Esta directriz, en proceso de desarrollo y sometida a revisión pública por la Fundación Nacional de Ciencias (NSF), pretende reformular el panorama de la IA tras la retirada de políticas anteriores de la administración Biden.
En respuesta a este llamado a la participación pública, la Electronic Frontier Foundation (EFF) ha planteado varios aspectos críticos que merecen atención. Principalmente, la EFF aboga por que la adquisición de tecnologías automatizadas por parte del gobierno se gestione con total transparencia y responsabilidad pública. Argumentan en contra del uso de algoritmos opacos y sin pruebas suficientes para decisiones de gran impacto, como la empleabilidad y la concesión de asilo.
Además, se pide una regulación adecuada para la IA generativa, asegurándose de que también proteja intereses públicos más amplios. También se critica el afianzamiento del poder de las grandes corporaciones a través de esquemas de licenciamiento restrictivos, que podrían limitar la competencia e innovación.
El vertiginoso ritmo de adopción de la IA en EE. UU. trae consigo una alarmante falta de transparencia, consolidando el dominio de los grandes actores del sector y poniendo en riesgo las libertades civiles ante decisiones automatizadas. Se observa una tendencia preocupante en ciertas áreas gubernamentales, como la policía y la seguridad nacional, donde se han intentado introducir herramientas experimentales de IA, incluso para evaluar a trabajadores federales.
El uso de la IA en decisiones clave personales puede ser tanto teóricamente ineficaz como peligrosamente discriminatorio, enmascarado en la opacidad tecnológica. La implementación de estas tecnologías debería pasar por un robusto proceso de participación pública, como lo sugiere la Ley de Procedimiento Administrativo, para mitigar el gasto en tecnologías ineficaces y prevenir usos inapropiados o lesivos.
El plan de acción propone también el desarrollo bajo principios de software libre y de código abierto, con un enfoque en la evaluación y beneficio público más allá de los intereses de grandes empresas consolidadas.
Las crecientes preocupaciones sobre la IA generativa han derivado en regulaciones apresuradas y de amplio espectro. Leyes recientes como NO FAKES y NO AI Fraud buscan extender la protección de copyright, en beneficio mayormente de corporaciones poderosas, dejando de lado a creadores más pequeños. Además, ideas técnicas propuestas como el «watermarking» revelan significativos problemas prácticos.
En este paisaje, el impulso hacia licenciamientos de IA pone trabas a desarrolladores independientes, creando barreras de entrada que favorecen a quienes poseen más recursos. Esto es visto por la EFF como una táctica que no soluciona el desequilibrio de poder entre creadores y corporaciones mayoritarias, y que podría obstaculizar la expresión cultural libre.
Los legisladores, por tanto, deberían priorizar soluciones que respeten la participación ciudadana en la cultura, manteniendo políticas bien definidas y métodos probados para resolver desafíos auténticos en el ámbito de la IA.