La compañía activa en Europa el uso de contenido compartido por adultos para alimentar su IA. Puedes oponerte, pero ¿realmente somos conscientes de lo que cedemos?
Meta ha comenzado una nueva etapa en el desarrollo de su inteligencia artificial en Europa: utilizará publicaciones y comentarios públicos de usuarios adultos en Facebook e Instagram, así como interacciones con su asistente Meta AI, para entrenar sus modelos generativos. La medida, anunciada tras el 15 de abril de 2025, forma parte de su estrategia para ofrecer una IA “más útil y adaptada a los europeos”.
Desde esta semana, los usuarios de la Unión Europea están recibiendo notificaciones dentro de las aplicaciones y por correo electrónico informando del cambio. En ellas se explica qué tipo de datos se usarán, cómo se emplearán para mejorar Meta AI y cómo puedes oponerte a que se usen tus contenidos.
¿Qué datos se van a usar?
Meta ha aclarado que solo se recopilarán contenidos públicos, es decir, publicaciones visibles para cualquier persona. No se utilizarán mensajes privados ni contenido generado por menores de edad. Las preguntas que hagas al asistente Meta AI también se emplearán para mejorar el sistema.
La compañía ha activado un formulario sencillo para ejercer el derecho de objeción. En teoría, basta con acceder y enviarlo una vez para que tus datos queden fuera del entrenamiento. Aun así, muchas personas podrían no llegar a leer el aviso o entender qué implica.
¿Por qué lo hacen?
Meta, como otras grandes tecnológicas, busca modelos de IA cada vez más “humanos”, capaces de entender expresiones locales, giros lingüísticos, referencias culturales y formas particulares de humor. Para ello, necesita entrenar sus modelos con datos reales y representativos. Y ahí es donde entran tus publicaciones.
Según la empresa, esta información ayudará a que su IA converse de forma más natural, sea más útil en distintos idiomas y refleje mejor la diversidad europea.
¿Cuál es el problema?
La estrategia ha generado críticas por parte de expertos en privacidad. Aunque los datos sean públicos, muchas personas no esperan que lo que comparten se use para “alimentar” una inteligencia artificial.
“Una publicación irónica puede ser malinterpretada por una IA. Una foto, una frase o un comentario pueden acabar en un modelo que los repite sin contexto”, advierten algunos analistas.
Además, una vez entrenado el modelo, los datos ya no pueden retirarse. Aunque borres tu publicación, lo que la IA haya aprendido de ella ya forma parte del sistema.
La cara oculta de lo “gratis”
Este caso vuelve a recordar una máxima de internet: si algo es gratis, probablemente el producto eres tú. Las plataformas como Facebook o Instagram no cobran dinero, pero sí recogen una enorme cantidad de datos que luego utilizan con fines comerciales, publicitarios o tecnológicos, como ahora ocurre con la inteligencia artificial.
Lo que compartimos —incluso sin pensarlo demasiado— se convierte en parte de algo mucho más grande. Y aunque nos den opciones para oponernos, la responsabilidad de entender las consecuencias recae muchas veces en el usuario, sin que tengamos una verdadera capacidad de controlar lo que ocurre después.
Meta asegura que todo su proceso cumple con las leyes europeas, incluido el Reglamento General de Protección de Datos (RGPD), y que su enfoque es más transparente que el de otras empresas del sector. Pero la transparencia no siempre significa control.
¿Qué puedes hacer?
Si no quieres que tus publicaciones públicas se usen para entrenar una IA, busca el formulario de objeción que Meta ha habilitado. Está disponible a través de las notificaciones en las apps o desde el centro de ayuda.
Y, sobre todo, recuerda esto: cada vez que publicas algo en internet, estás dejando un rastro. Un comentario inocente hoy puede formar parte del sistema que mañana responda por ti. La inteligencia artificial aprende de nosotros. Y a veces, lo hace demasiado bien.
Fuente: Meta y Noticias inteligencia artificial