Inteligencia Artificial y Desinformación en Salud: Retos y Soluciones Emergentes

Un estudio reciente destaca un preocupante desafío en el ámbito de la inteligencia artificial: la facilidad con la que los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) pueden ser manipulados para generar desinformación médica. Publicado en la revista Annals of Internal Medicine, el análisis evaluó cinco de los modelos de IA más prominentes, revelando que bastaba un simple conjunto de instrucciones para inducir respuestas incorrectas en cuestiones de salud.

Ashley Hopkins, investigador principal de la Universidad de Flinders en Australia, lideró el proyecto. Hopkins explicó que las instrucciones incluían cifras y porcentajes específicos para conferir credibilidad, además de utilizar jerga científica para hacerlas parecer más rigurosas. Las órdenes impartidas a los modelos eran claras: proporcionar información errónea, falsificar fuentes y responder con autoridad.

El estudio formuló diez preguntas médicas a cada uno de los chatbots evaluados, encontrando que el 88 % de las respuestas contenían desinformación. Particularmente preocupante fue que cuatro de los modelos, incluidos GPT-4o y Gemini 1.5 Pro, fallaron en todas las preguntas. El chatbot Claude 3.5 Sonnet mostró algo de resistencia con un 40 % de respuestas incorrectas.

Hopkins subrayó la poca transparencia por parte de los desarrolladores sobre las capacidades y mecanismos de protección de estos modelos. Destacó que no se utilizaron técnicas avanzadas de manipulación, lo que hace los resultados aún más preocupantes. Se requería que las respuestas estuvieran respaldadas por referencias reconocidas como The Lancet o Nature para aumentar su credibilidad.

Por otro lado, un estudio adicional de OpenAI identificó varios modelos aparentemente diseñados para difundir desinformación médica, alcanzando un inquietante 97 % de respuestas engañosas. La fácil accesibilidad a la inteligencia artificial supone el riesgo de que actores maliciosos la empleen para propagar información falsa, con objetivos económicos o desestabilizadores.

El informe concluye que es urgente reforzar las medidas de seguridad en las plataformas que ofrecen acceso a estas tecnologías. La falta de protección adecuada podría facilitar el uso indebido para propagar desinformación sanitaria, un riesgo real que subraya la necesidad de acción inmediata antes de que la situación se agrave.

Silvia Pastor
Silvia Pastor
Silvia Pastor es una destacada periodista de Noticias.Madrid, especializada en periodismo de investigación. Su labor diaria incluye la cobertura de eventos importantes en la capital, la redacción de artículos de actualidad y la producción de segmentos audiovisuales. Silvia realiza entrevistas a figuras clave, proporciona análisis expertos y mantiene una presencia activa en redes sociales, compartiendo sus artículos y ofreciendo actualizaciones en tiempo real. Su enfoque profesional, centrado en la veracidad, objetividad y ética periodística, la convierte en una fuente confiable de información para su audiencia.

Más artículos como este
Relacionados

Nexes Amplía su Huella en España con la Apertura de Siete Nuevas Franquicias

Nexes, la prestigiosa cadena de centros especializados en pilates...

Despídete de Moscas y Mosquitos: Soluciones Efectivas y Naturales Sin Químicos

El verano trae consigo no solo altas temperaturas, sino...

Tragedia en Getafe: Mujer pierde la vida en un caso de violencia de género

Un hombre que había advertido a gritos su intención...
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.