En un trágico incidente en Las Vegas, Matthew Livelsberger, un soldado estadounidense en activo de 37 años, utilizó el popular chatbot ChatGPT para obtener información sobre explosivos antes de su suicidio en un Tesla Cybertruck frente al hotel Trump International. Investigaciones policiales han revelado que Livelsberger realizó diversas consultas al programa de OpenAI sobre cómo activar explosivos e información sobre armas de fuego, que posteriormente utilizó en el acto. Las autoridades han hecho públicas capturas de estas interacciones, en las que se evidencia que las preguntas se hicieron pocos días antes de la explosión. OpenAI, la empresa detrás de ChatGPT, defendió su responsabilidad afirmando que la información proporcionada estaba públicamente disponible y que el sistema emitía advertencias contra acciones peligrosas.
La noticia ha reavivado el debate sobre los controles de seguridad en las interacciones de inteligencia artificial, destacando los riesgos potenciales de su uso indebido. OpenAI ha declarado su compromiso de asegurar que sus herramientas sean utilizadas de manera responsable y apoya a las autoridades en la investigación. Paralelamente, se ha confirmado que Livelsberger tenía un posible manifiesto en su teléfono, con menciones a la guerra de Afganistán, lo que podría ayudar a entender sus motivaciones. Este suceso se suma a otros incidentes recientes donde las interacciones con programas de inteligencia artificial han derivado en situaciones controvertidas, poniendo en cuestión la responsabilidad de estas plataformas en la moderación del contenido que facilitan a sus usuarios.
Leer noticia completa en El Pais.