Google, una de las compañías tecnológicas más influyentes del mundo, ha tomado decisiones que han suscitado una polémica generalizada en torno a su compromiso con la ética y los derechos humanos. La eliminación de puntos clave de sus principios de inteligencia artificial ha sido vista como un alejamiento de su antiguo lema «No seas malvado». Entre los principios eliminados se encontraban compromisos importantes contra el desarrollo de aplicaciones de IA para armas, vigilancia masiva y tecnologías potencialmente dañinas o que infrinjan principios internacionales y derechos humanos.
El cambio de enfoque de Google hacia un modelo donde las «democracias» lideren el desarrollo de la IA y colaboren con las empresas tecnológicas para proteger a las personas y fomentar el crecimiento global ha encendido las alarmas sobre el potencial uso de sus tecnologías para fines militares y de vigilancia. La capacidad significativa de cómputo del gigante tecnológico podría ser instrumentalizada para el desarrollo de sistemas de armas basados en IA.
Esta situación ha sido recibida con fuertes críticas de organizaciones defensoras de derechos humanos y entidades como la Electronic Frontier Foundation (EFF). La controversia se intensificó con la participación de Google en Project Nimbus, dotando al gobierno israelí de capacidades avanzadas de nube e inteligencia artificial que, según se informa, han sido empleadas para vigilancia masiva en los Territorios palestinos ocupados.
La valoración de Google, que ronda los 2.343 billones de dólares, parece inclinarse hacia la obtención de beneficios de la tecnología de vigilancia y sistemas de armas, especialmente en un entorno donde el financiamiento gubernamental a contratistas de defensa está en auge. Aunque en el pasado la compañía había mostrado un firme compromiso con los derechos humanos, ahora parece priorizar su rentabilidad a corto plazo sobre sus principios éticos.
El uso de la inteligencia artificial en sistemas de armas autónomos plantea preocupaciones significativas, particularmente sobre la posibilidad de que estos sistemas tomen decisiones letales sin intervención humana. En manos de gobiernos autodenominados democráticos o incluso regímenes autoritarios, la falta de responsabilidad intrínseca de la IA podría desembocar en errores catastróficos, poniendo en peligro los derechos fundamentales de las personas.
Ante este panorama, se hace un llamado urgente a Google y a otras empresas tecnológicas para que reconsideren sus estrategias. En tanto, los usuarios deberán cuestionarse sobre en quién confiar su información y sus negocios, especialmente en un contexto en el que la búsqueda, uno de sus productos más populares, comienza a mostrar signos de vulnerabilidad.