Inteligencia Artificial y Desinformación en Salud: Retos y Soluciones Emergentes

Un estudio reciente destaca un preocupante desafío en el ámbito de la inteligencia artificial: la facilidad con la que los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) pueden ser manipulados para generar desinformación médica. Publicado en la revista Annals of Internal Medicine, el análisis evaluó cinco de los modelos de IA más prominentes, revelando que bastaba un simple conjunto de instrucciones para inducir respuestas incorrectas en cuestiones de salud.

Ashley Hopkins, investigador principal de la Universidad de Flinders en Australia, lideró el proyecto. Hopkins explicó que las instrucciones incluían cifras y porcentajes específicos para conferir credibilidad, además de utilizar jerga científica para hacerlas parecer más rigurosas. Las órdenes impartidas a los modelos eran claras: proporcionar información errónea, falsificar fuentes y responder con autoridad.

El estudio formuló diez preguntas médicas a cada uno de los chatbots evaluados, encontrando que el 88 % de las respuestas contenían desinformación. Particularmente preocupante fue que cuatro de los modelos, incluidos GPT-4o y Gemini 1.5 Pro, fallaron en todas las preguntas. El chatbot Claude 3.5 Sonnet mostró algo de resistencia con un 40 % de respuestas incorrectas.

Hopkins subrayó la poca transparencia por parte de los desarrolladores sobre las capacidades y mecanismos de protección de estos modelos. Destacó que no se utilizaron técnicas avanzadas de manipulación, lo que hace los resultados aún más preocupantes. Se requería que las respuestas estuvieran respaldadas por referencias reconocidas como The Lancet o Nature para aumentar su credibilidad.

Por otro lado, un estudio adicional de OpenAI identificó varios modelos aparentemente diseñados para difundir desinformación médica, alcanzando un inquietante 97 % de respuestas engañosas. La fácil accesibilidad a la inteligencia artificial supone el riesgo de que actores maliciosos la empleen para propagar información falsa, con objetivos económicos o desestabilizadores.

El informe concluye que es urgente reforzar las medidas de seguridad en las plataformas que ofrecen acceso a estas tecnologías. La falta de protección adecuada podría facilitar el uso indebido para propagar desinformación sanitaria, un riesgo real que subraya la necesidad de acción inmediata antes de que la situación se agrave.

Silvia Pastor
Silvia Pastor
Silvia Pastor es una destacada periodista de Noticias.Madrid, especializada en periodismo de investigación. Su labor diaria incluye la cobertura de eventos importantes en la capital, la redacción de artículos de actualidad y la producción de segmentos audiovisuales. Silvia realiza entrevistas a figuras clave, proporciona análisis expertos y mantiene una presencia activa en redes sociales, compartiendo sus artículos y ofreciendo actualizaciones en tiempo real. Su enfoque profesional, centrado en la veracidad, objetividad y ética periodística, la convierte en una fuente confiable de información para su audiencia.

Más artículos como este
Relacionados

Transforma Tu Hogar: Guía Completa de Decoración con Estilos, Funciones y Consejos Esenciales

Decorar un hogar trasciende la simple selección de muebles...

La Transformación del Paisaje Digital: Los Hiperescala Nublan a los Centros de Datos Tradicionales

La capacidad de procesamiento informático a nivel mundial está...

Récord de Tráfico: 187 Millones de Vehículos Recorren la M-30 en el Primer Semestre del Año

Madrid Calle 30 ha registrado un notable descenso en...

Madrid duplica la formación en uso responsable del metro entre escolares

En un esfuerzo por resaltar la relevancia histórica, tecnológica...
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.