Un estudio liderado por investigadores de la Universidad de Cambridge alerta sobre el riesgo de daño psicológico y posibles “apariciones” digitales no deseadas de seres queridos fallecidos a través de chatbots de IA sin estándares de seguridad diseñados. Los llamados “Deadbots” o “Griefbots” son chatbots de IA que simulan los patrones de lenguaje y rasgos de personalidad de los difuntos utilizando las huellas digitales que dejan detrás.

El centro de investigación Centre for the Future of Intelligence de Cambridge esbozan tres escenarios de diseño para plataformas que podrían surgir como parte de la industria en desarrollo de “vida digital después de la muerte”, mostrando las consecuencias potenciales de un diseño descuidado en un área de IA que describen como “de alto riesgo”.

El estudio, publicado en la revista Philosophy and Technology, destaca la posibilidad de que las empresas utilicen “Deadbots” para publicitar productos de manera subrepticia a los usuarios en nombre de un ser querido fallecido, o angustiar a los niños insistiendo en que un padre fallecido aún está “contigo”.

Las personas investigadoras advierten sobre el posible agotamiento emocional causado por interacciones diarias con un “Deadbot”, subrayando la necesidad de protocolos de diseño que protejan la dignidad de los difuntos y aseguren el consentimiento tanto de los donantes de datos como de aquellos que interactúan con los servicios de vida digital después de la muerte.

El estudio destaca la importancia de considerar los derechos y el consentimiento tanto de aquellos que son recreados digitalmente como de quienes interactuarán con las simulaciones, llamando a la implementación de protocolos de diseño que permitan a los usuarios terminar sus relaciones con los “Deadbots” de manera que brinde un cierre emocional.

Secciones: portada

Si quieres, puedes escribir tu aportación