La Inteligencia Artificial (IA) sigue emergiendo como una cuestión de gran interés global. Según el informe de tendencias tecnológicas de McKinsey para 2024, en 2023 se destinaron 36 mil millones de dólares a la IA Generativa y 86 mil millones de dólares a la IA aplicada. Actualmente, el mercado de IA en el Reino Unido está valorado en más de 16,8 mil millones de libras, con expectativas de alcanzar los 801,6 mil millones de libras para 2035, subrayando un avance significativo en diversos sectores.
Un ejemplo de la eficiencia de la IA es la aplicación de la tecnología de Visión por Computador en Marks and Spencer, donde se logró una reducción del 80% en accidentes en sus almacenes en solo 10 semanas. No obstante, la cuestión de cómo una gobernanza eficaz puede permitir la innovación mientras se mantiene el cumplimiento normativo sigue siendo un tema abierto.
El Reino Unido pretende convertirse en una «Superpotencia de IA». No obstante, la regulación de esta tecnología ha sido objeto de debate. En 2023, el gobierno de la oposición publicó el «Libro Blanco de Regulación de IA: Un Enfoque Pro-Innovación», proponiendo un enfoque basado en principios delegados a reguladores individuales. Aunque este enfoque ayudó al crecimiento de la IA en el Reino Unido, también reveló lagunas que deben ser abordadas.
Con las elecciones generales del Reino Unido de 2024 a la vista, la regulación de la IA se convirtió en un punto crucial en el manifiesto del Partido Laborista, bajo la sección «Impulsar el crecimiento económico». Keir Starmer ha abogado por regulaciones más estrictas y la creación de una Oficina de Innovación Regulatoria (RIO) para establecer metas y monitorear los avances tecnológicos.
Esta nueva oficina no será un regulador de IA per se, sino que trabajará con los reguladores existentes. Asimismo, se planea la creación de una Iniciativa de Biblioteca Nacional de Datos para consolidar programas de investigación y servicios públicos basados en datos.
Más allá de las políticas gubernamentales y el potencial económico, la IA es vista como una solución a problemas globales. Sin embargo, las tecnologías digitales plantean desafíos a las leyes actuales. Se requiere un enfoque regulatorio que sea proporcional y futurista.
Definir la IA es complejo, ya que no existe una definición ampliamente aceptada. Las diferentes ramas de las ciencias tienen definiciones individualizadas, y la falta de una definición comúnmente acordada dificulta la formulación de regulaciones.
Aplicando los principios de «certeza jurídica» y «protección de intereses legítimos», la definición existente de IA no cumple con los requisitos para ser legalmente válida. Esto genera definiciones ambiguas y practicables que complican la regulación tanto a nivel nacional como internacional.
El principio de «precaución», usado en la gestión de riesgos, establece que si una política causa daño al público y no hay consenso científico, no debe implementarse. Sin embargo, este principio es problemático para la IA, ya que muchos efectos aún no son evaluables o son desconocidos.
En lugar de una Ley General de Inteligencia Artificial, se necesita un enfoque más detallado que considere los diferentes algoritmos y aplicaciones de IA. Esta metodología permitirá una política iterativa que beneficie tanto a la sociedad como a la innovación.
La versatilidad de los sistemas de IA presenta oportunidades y desafíos variados según su uso y quien los utilice. Por lo tanto, una comprensión profunda de estos sistemas es crucial para desarrollar regulaciones efectivas que fomenten la innovación y protejan los derechos fundamentales.