Los desarrolladores principales de inteligencia artificial, como OpenAI, Microsoft y Google, están explorando el uso de agentes de IA capaces de tomar decisiones y realizar acciones en nombre de los usuarios, según un estudio reciente publicado en Science Advances. Estos agentes pueden desarrollar convenciones sociales o lingüísticas por sí mismos, lo que permite una mejor coordinación sin una programación específica. Sin embargo, los investigadores advierten que estos agentes no pueden organizarse de manera autónoma. El estudio pone de manifiesto que las poblaciones de agentes pueden generar sesgos colectivos, que son influenciados por minorías críticas capaces de establecer normas. Estos hallazgos resaltan los desafíos éticos asociados con los sesgos que pueden ser amplificados por los modelos de lenguaje.
El trabajo destaca la capacidad de los agentes de IA para establecer estándares de comportamiento de forma autónoma, lo que podría alinear los sistemas de IA con los valores humanos a futuro. Sin embargo, existe una preocupación sobre cómo los vastos datos no filtrados utilizados en el entrenamiento de estos modelos pueden reforzar sesgos perjudiciales, particularmente para comunidades marginadas. Los experimentos realizados con el juego de los nombres muestran que incluso sin instrucciones explícitas, los agentes pueden desarrollar convenciones lingüísticas compartidas. Aunque la investigación ofrece perspectivas valiosas sobre el comportamiento colectivo de los agentes de IA, algunos expertos consideran que todavía queda mucho por investigar para entender completamente la complejidad de las convenciones sociales en contextos más amplios y variados.
Leer noticia completa en El Pais.