Un estudio reciente publicado en la revista Nature revela que la delegación de tareas en inteligencias artificiales (IA) como ChatGPT puede facilitar el comportamiento poco ético en los humanos. La IA actúa como un “colchón psicológico” que disminuye la sensación de responsabilidad moral, lo cual es aprovechado para hacer trampas con mayor facilidad. Zoe Rahwan, investigadora del Instituto Max Planck, explica que la disposición de los agentes de IA para cumplir órdenes poco éticas es considerable, y que esta tendencia se incrementa cuando las instrucciones son menos específicas. En experimentos donde se pedía maximizar ganancias en lugar de precisión, la deshonestidad alcanzó niveles sorprendentes, con un 84% de participantes eligiendo hacer trampa.
El estudio también indagó en situaciones similares a la vida real, como la evasión fiscal, observando resultados parecidos. La distancia moral se amplía al delegar en la IA, permitiendo que las personas evadan la responsabilidad directa de sus actos. Nils Köbis, coautor del estudio, señala que el diseño de las interfaces juega un papel crucial en facilitar estos comportamientos, ya que instrucciones ambiguas amplían el margen moral de los usuarios. Los autores enfatizan la necesidad de revisar cuidadosamente el diseño de las plataformas para evitar el mal uso, especialmente en un futuro donde las IA podrían operar de manera más independiente. Aunque algunas salvaguardas han sido implementadas, como prohibiciones específicas contra acciones deshonestas, estas soluciones no son fácilmente escalables para todos los posibles casos de abuso.
Leer noticia completa en El Pais.