Un estudio reciente destaca un preocupante desafío en el ámbito de la inteligencia artificial: la facilidad con la que los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) pueden ser manipulados para generar desinformación médica. Publicado en la revista Annals of Internal Medicine, el análisis evaluó cinco de los modelos de IA más prominentes, revelando que bastaba un simple conjunto de instrucciones para inducir respuestas incorrectas en cuestiones de salud.
Ashley Hopkins, investigador principal de la Universidad de Flinders en Australia, lideró el proyecto. Hopkins explicó que las instrucciones incluían cifras y porcentajes específicos para conferir credibilidad, además de utilizar jerga científica para hacerlas parecer más rigurosas. Las órdenes impartidas a los modelos eran claras: proporcionar información errónea, falsificar fuentes y responder con autoridad.
El estudio formuló diez preguntas médicas a cada uno de los chatbots evaluados, encontrando que el 88 % de las respuestas contenían desinformación. Particularmente preocupante fue que cuatro de los modelos, incluidos GPT-4o y Gemini 1.5 Pro, fallaron en todas las preguntas. El chatbot Claude 3.5 Sonnet mostró algo de resistencia con un 40 % de respuestas incorrectas.
Hopkins subrayó la poca transparencia por parte de los desarrolladores sobre las capacidades y mecanismos de protección de estos modelos. Destacó que no se utilizaron técnicas avanzadas de manipulación, lo que hace los resultados aún más preocupantes. Se requería que las respuestas estuvieran respaldadas por referencias reconocidas como The Lancet o Nature para aumentar su credibilidad.
Por otro lado, un estudio adicional de OpenAI identificó varios modelos aparentemente diseñados para difundir desinformación médica, alcanzando un inquietante 97 % de respuestas engañosas. La fácil accesibilidad a la inteligencia artificial supone el riesgo de que actores maliciosos la empleen para propagar información falsa, con objetivos económicos o desestabilizadores.
El informe concluye que es urgente reforzar las medidas de seguridad en las plataformas que ofrecen acceso a estas tecnologías. La falta de protección adecuada podría facilitar el uso indebido para propagar desinformación sanitaria, un riesgo real que subraya la necesidad de acción inmediata antes de que la situación se agrave.