El pasado 1 de agosto marcó un hito importante en Europa con la entrada en vigor del nuevo marco legal sobre inteligencia artificial (IA), conocido como la EU AI Act. Esta normativa busca evitar violaciones de derechos a través de las diversas aplicaciones de esta tecnología, clasificando la IA según el nivel de riesgo que presenta para los individuos y la sociedad. Las tecnologías consideradas de «riesgo inaceptable», aquellas que manipulan o explotan la vulnerabilidad de las personas, están expresamente prohibidas.
En este contexto, surge un debate sobre los deadbots, una tecnología que algunas empresas ya están desarrollando y que podría entrar en la categoría de alto riesgo. Se trata de chatbots diseñados a partir de la huella digital de una persona fallecida, capaces de emular su personalidad para mantener conversaciones con familiares y amigos del difunto. Aunque pueda parecer una idea sacada de la ciencia ficción, la realidad es que este tipo de servicios está cada vez más cerca de ser comercializado.
La doctora Belén Jiménez, experta en mediación tecnológica del duelo e investigadora del grupo CareNet de la Universitat Oberta de Catalunya (UOC), advierte sobre la necesidad de examinar los aspectos bioéticos que rodean a los deadbots. Jiménez enfatiza la importancia de estudiar cómo estas tecnologías pueden mediatizar e incluso transformar el duelo, un campo que, según ella, carece de suficientes estudios científicos y aún no ofrece respuestas claras.
La EU AI Act establece que todos los chatbots deben informar al usuario de que están interactuando con un programa informático y no con una persona. Aunque clasifica a la mayoría de estos programas como de «riesgo limitado», las implicaciones varían en contextos sensibles, como el del duelo, que involucran profundos aspectos emocionales y psicológicos.
Los deadbots se sustentan en el concepto de «lazos continuos» entre los dolientes y los fallecidos. Este fenómeno, bien establecido en la psicología del duelo, puede satisfacer la necesidad humana de mantener vínculos emocionales. No obstante, Jiménez subraya que esta interacción debe estar regulada para evitar que los intereses comerciales de las empresas prevalezcan sobre el potencial uso terapéutico de esta tecnología.
El avance de la llamada «digital afterlife industry» plantea serias cuestiones éticas. Empresas del sector podrían incurrir en prácticas manipulativas, como enviar notificaciones para mantener a los dolientes «enganchados», advierte Jiménez, poniendo de relieve la necesidad de una regulación rigurosa para manejar los riesgos inherentes de esta tecnología.
La AI Act pretende fomentar la transparencia en el uso de estas tecnologías, lo cual es crucial, especialmente en contextos sensibles como el duelo. Las empresas que desarrollen deadbots deberán adherirse a normas estrictas e invertir en auditorías, transparencia y documentación. Las infracciones podrían resultar en multas de hasta 30 millones de euros o el 6% de la facturación de la corporación.
A la espera de una regulación específica para los deadbots, Jiménez propone que cualquier normativa futura garantice el respeto y la dignidad del fallecido, además de promover el bienestar psicológico de los usuarios, sobre todo aquellos que están en duelo. La discusión sobre estos temas no solo es urgente, sino crucial para el camino que la tecnología y la humanidad habrán de recorrer juntos.