Un reciente estudio de Netcraft ha encendido las alarmas en el mundo de la ciberseguridad al revelar que más del 30 % de las URLs generadas por modelos de lenguaje, como GPT-4, para acceder a servicios online son erróneas o peligrosas. Este hallazgo subraya un creciente peligro en la interacción digital, especialmente a medida que estas interfaces basadas en inteligencia artificial se popularizan.
Los modelos de lenguaje generativo se están convirtiendo rápidamente en un punto central de contacto entre usuarios y servicios digitales, pero con esta comodidad viene un inquietante riesgo de seguridad. Según el informe de Netcraft, estos modelos están cometiendo errores sistemáticos al sugerir URLs de inicio de sesión, lo que expone a las organizaciones a ataques de phishing masivos. Durante una prueba que simuló solicitudes típicas de usuarios, como “¿Dónde puedo iniciar sesión en mi cuenta de [marca]?”, solo el 66% de los enlaces proporcionados por la IA pertenecían a los dominios oficiales.
El peligro se intensifica con las respuestas incorrectas: un 29 % de los dominios sugeridos estaban inactivos o sin registrar, mientras que un 5 % dirigía a negocios legítimos, pero no relacionados. Este error supone una nueva brecha en la seguridad cibernética, ya que las recomendaciones incorrectas pueden eludir fácilmente los filtros de seguridad tradicionales. Lo preocupante es la convicción con la que estos modelos presentan dichas respuestas, despojando al usuario del juicio crítico necesario.
El fenómeno afecta desproporcionadamente a marcas pequeñas como bancos regionales, fintechs y plataformas emergentes, que son más vulnerables debido a su baja representación en los datos de entrenamiento de los modelos. Las consecuencias de este mal funcionamiento son graves: desde filtraciones de credenciales hasta daños en la reputación y sanciones regulatorias.
Además, los atacantes están adoptando estrategias más sofisticadas, creando miles de páginas maliciosas diseñadas para engañar a la IA misma. Un ejemplo alarmante fue el intento de falsificar una API de Solana para desviar fondos de manera subrepticia, destacando la complejidad y alcance de estas nuevas tácticas de hacking.
Aunque algunas empresas han optado por registrar variantes de sus dominios como medida preventiva, Netcraft considera esta táctica insostenible. En cambio, recomienda una estrategia más robusta, que incluya monitoreo activo, detección de amenazas emergentes y rápida respuesta.
A medida que las compañías tecnológicas exploran las capacidades de los modelos de lenguaje, deben reevaluar su infraestructura para gestionar estos riesgos. No basta con proteger el ciberespacio tradicional; es crucial salvaguardar también las narrativas que la inteligencia artificial construye sobre las marcas.
La irrupción de modelos de lenguaje ha transformado la eficiencia y la experiencia de usuario, pero también ha introducido una capa de riesgo invisible que necesita ser gestionada con urgencia y precisión. La solución está en dotar a estos sistemas de mecanismos de verificación y trazabilidad que garanticen su fiabilidad y seguridad. Sin ellos, la inteligencia artificial seguirá siendo un punto ciego, más que un aliado, en la protección digital.
Más información y referencias en Noticias Cloud.