En un mundo donde la tecnología avanza a pasos agigantados, las amenazas que antes parecían exclusivamente del dominio de la ciencia ficción están tomando forma en nuestra vida diaria. Una de estas amenazas es el uso de la inteligencia artificial para crear identidades sintéticas, una técnica que ha sido aprovechada por trabajadores de tecnología de la información vinculados al régimen de Corea del Norte, según un informe reciente del grupo Unit 42 de Palo Alto Networks.
Esta operación de ciberinfiltración ha despertado alarmas a nivel global. Utilizando tecnologías de deepfake en tiempo real, estos actores están logrando eludir sanciones internacionales y obtener trabajos remotos en empresas de todo el mundo. Su objetivo principal es acceder a información privilegiada en corporaciones y potencialmente utilizar esta información como medio de financiación, burlando así las restricciones económicas impuestas a su país de origen.
Los operativos norcoreanos emplean técnicas avanzadas como la sustitución facial durante entrevistas de trabajo online, creando múltiples identidades falsas desde un único equipo. Este sofisticado engaño es posible mediante el uso de hardware relativamente económico, como una GPU NVIDIA GTX 3070 en un dispositivo portátil, lo que demuestra que la accesibilidad tecnológica para crear deepfakes es mayor de lo que se pensaba.
A pesar de los avances en esta tecnología, aún existen debilidades que pueden ser explotadas para detectar estas falsificaciones. El equipo de Unit 42 ha identificado varios defectos inherentes a los deepfakes, tales como inconsistencias en los movimientos faciales, fallos al manejar oclusiones, problemas con la iluminación y desincronización entre el audio y los movimientos labiales. Estos puntos débiles proporcionan señales valiosas para aquellos responsables de la seguridad y contratación en las empresas.
Para mitigar el riesgo que representan estas sofisticadas técnicas de suplantación de identidad, los expertos sugieren adoptar un enfoque de defensa en capas. Se recomienda a los recursos humanos grabar las entrevistas, previa autorización, e incorporar métodos de verificación de identidad avanzados, así como formar a los entrevistadores para detectar posibles manipulaciones. Por otro lado, los equipos de seguridad deben estar atentos a direcciones IP inusuales, verificar el origen de las comunicaciones y trabajar en conjunto con otras organizaciones para compartir información relevante.
Este fenómeno de manipulación de entrevistas pone de manifiesto un nuevo frente en la guerra cibernética, representando no solo un avance en las técnicas de ingeniería social, sino también una táctica novedosa para eludir restricciones económicas. En este contexto, la colaboración entre los departamentos de recursos humanos y seguridad cibernética se vuelve fundamental para proteger la integridad del proceso de contratación y asegurar que los empleados seleccionados sean confiables.
La aparición de deepfakes como herramienta de ataque subraya la importancia de establecer mecanismos de defensa avanzados y de desarrollar una cultura de ciberseguridad robusta dentro de las organizaciones. La detección temprana y la prevención son claves para enfrentar estos nuevos desafíos tecnológicos, en un mundo donde la línea entre la realidad y la ficción se está difuminando de manera alarmante.
Más información y referencias en Noticias Cloud.