Más de 200 empleados de DeepMind, el laboratorio de investigación y desarrollo de Google, expresaron su rechazo vehemente hacia la utilización de la inteligencia artificial (IA) en aplicaciones militares. En una carta fechada el 16 de mayo, estos trabajadores demandaron a la compañía que pusiera fin a sus contratos con organizaciones militares, argumentando que la tecnología desarrollada por Google está siendo empleada en actividades bélicas, contraviniendo los principios éticos de IA que Google se comprometió a seguir desde la adquisición de DeepMind en 2014.
El documento no especifica conflictos o contratos exactos, pero menciona el conocido Proyecto Nimbus, un acuerdo entre Google e Israel para proporcionar servicios de computación en la nube e inteligencia artificial al ejército israelí. Según la carta, el ejército israelí está utilizando estas tecnologías para vigilancia y bombardeos selectivos, infringiendo así los principios de ética y responsabilidad que Google prometió adherir.
Los empleados señalan que Google está fallando en su compromiso de no permitir que sus tecnologías sean usadas para fines militares o de vigilancia, lo cual está dañando su reputación como líder en IA ética. Solicitan también a la directiva que investigue estas acusaciones, impida el acceso militar a sus tecnologías y garantice que futuros contratos no incluyan aplicaciones militares.
Hasta el momento, los trabajadores indican que no han recibido una respuesta significativa por parte de la dirección de Google. Aunque solo el 5% de la fuerza laboral de Google ha firmado la carta, esta situación refleja una creciente tensión dentro de la empresa y un choque cultural entre la división de IA de Google, DeepMind, y la empresa en general, la cual continúa vendiendo servicios en la nube y tecnología de IA a clientes militares.
Este conflicto destaca una disyuntiva entre los principios éticos de desarrollo de IA y las prácticas comerciales de la compañía, generando un debate sobre el papel de las grandes tecnológicas en la industria armamentista y su responsabilidad en la aplicación de sus tecnologías.
La controversia desencadenada abre un debate más amplio sobre cómo las grandes corporaciones tecnológicas manejan la ética en la aplicación de sus innovaciones. La creciente presión interna podría obligar a Google a reevaluar su enfoque hacia los contratos militares y a tomar medidas concretas para alinear sus prácticas con los principios que defiende.
La situación continúa en desarrollo, y el desenlace de esta disputa podría tener repercusiones significativas tanto para la política interna de Google como para el debate global sobre la ética en la inteligencia artificial y la tecnología.