El pasado 1 de agosto entró en vigor el Reglamento de Inteligencia Artificial de la Unión Europea, una normativa diseñada para regular el uso de esta avanzada tecnología en el territorio europeo. Su principal objetivo es impulsar el desarrollo y el uso seguro de la inteligencia artificial, garantizando que no comprometa los derechos fundamentales de las personas.
Una encuesta realizada por Entelgy muestra que el 51% de los españoles reconoce saber de la existencia de esta nueva regulación, aunque solamente un 7.3% entiende en detalle cómo les afecta. La inteligencia artificial ha avanzado rápidamente en los últimos años, transformando la sociedad y ofreciendo nuevas oportunidades a empresas y ciudadanos. Sin embargo, estos progresos también han despertado preocupaciones sobre privacidad, seguridad y ética. La creciente aparición de aplicaciones de IA sin la adecuada supervisión ha revelado vulnerabilidades como el sesgo algorítmico, la discriminación y la falta de transparencia.
De hecho, el 93.1% de los ciudadanos encuestados en España considera necesaria una regulación sobre el uso de la inteligencia artificial tanto para empresas como para particulares. A la luz de estas cifras, Entelgy ha desglosado los principales puntos de esta normativa y sus implicaciones.
El Reglamento de IA tiene como objetivo principal garantizar la seguridad y los derechos fundamentales de los ciudadanos de la Unión Europea frente a los riesgos potenciales de la IA. Para ello, la normativa clasifica las aplicaciones de inteligencia artificial en cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Los sistemas de IA que manipulen comportamientos humanos o realicen reconocimiento facial en tiempo real en espacios públicos están considerados de riesgo inaceptable. Las aplicaciones de riesgo limitado y mínimo, por su parte, deben cumplir obligaciones de transparencia, asegurando que los usuarios estén informados cuando interactúan con sistemas de IA.
En cuanto al ámbito de aplicación, las empresas proveedoras de IA deben ajustar sus procesos para cumplir con la nueva normativa europea. Esto implica realizar evaluaciones exhaustivas de riesgos, asegurar la conformidad con los requisitos técnicos y de transparencia, preparar documentación técnica detallada y someterse a auditorías de conformidad. Además, deben incorporar principios éticos y de seguridad en todas las fases del desarrollo de sistemas de IA.
El impacto de esta nueva regulación es significativo y positivo para los ciudadanos de la UE, ya que garantiza la protección de sus derechos fundamentales, mejora la transparencia y la seguridad de las aplicaciones de IA, y fomenta la confianza en las tecnologías emergentes. Asimismo, la normativa europea podría establecer un estándar internacional para la regulación de la inteligencia artificial. Las empresas que operan a nivel global tendrán que adaptarse a estos nuevos requisitos si desean acceder al mercado europeo, promoviendo así prácticas responsables en todo el mundo.
Desde Entelgy señalan: “Esta normativa representa un paso crucial para asegurar que las aplicaciones de IA se desarrollen y utilicen de manera segura y ética. Esto no solo fortalecerá la confianza de los consumidores en las tecnologías de IA, sino que promoverá un entorno de innovación. Ante ello, las empresas debemos facilitar la adopción de las medidas y prácticas propuestas.”