Psicólogos e investigadores advierten sobre los posibles daños que las herramientas de IA que imitan a personas fallecidas pueden causar a los familiares, ya que pueden generar situaciones perturbadoras y angustiosas.
La inteligencia artificial (IA) ha demostrado ser una tecnología revolucionaria que ha impactado todos los estratos sociales. Aunque inicialmente parecía un término complejo, hoy es un tema de conversación común, incluso entre aquellos que no tienen conocimientos tecnológicos. Las capacidades de la IA se han expandido, permitiendo resolver problemas matemáticos complejos, traducir conversaciones en tiempo real y reaccionar emocionalmente a estímulos, gracias al acceso a las cámaras de nuestros dispositivos.
Esta tecnología también ha sido considerada para aplicaciones terapéuticas, como aliviar la soledad en la población envejecida, ofreciendo conversaciones mucho más realistas que las proporcionadas por asistentes virtuales anteriores como Siri o Alexa. Sin embargo, estas innovaciones no están exentas de dilemas éticos. Algunos desarrolladores han entrenado a la IA para replicar personalidades de seres queridos fallecidos, con la intención de ofrecer consuelo a los vivos.
Un caso notable es el de James Vlahos, quien creó un chatbot para simular conversaciones con su padre fallecido utilizando datos personales. Esta experiencia lo llevó a fundar HereAfter AI, una empresa que crea avatares virtuales alimentados por recuerdos compartidos, permitiendo a los familiares interactuar con sus seres queridos después de su muerte. Aunque este servicio requiere el consentimiento del usuario, otras herramientas similares están disponibles para quienes puedan pagarlas.
‘Project December’, creado por Jason Rohrer en 2020, permite a los usuarios simular conversaciones con cualquier persona, viva o muerta, a partir de descripciones detalladas de su personalidad y anécdotas. Este servicio, que cuesta 10 dólares, ha generado resultados satisfactorios para muchos usuarios, aunque también ha dado lugar a situaciones extrañas, como IA que imitan a familiares fallecidos haciendo declaraciones inusuales o perturbadoras.
Estas aplicaciones de la IA plantean importantes preguntas éticas y psicológicas sobre el impacto en los familiares de los fallecidos, quienes podrían experimentar más dolor y confusión en lugar de consuelo.
Quienes lo han probado se dicen satisfechos con el resultado, aunque también se han dado situaciones rocambolescas: un usuario vio cómo la IA que imitaba a su madre le pedía matrimonio, mientras que el ‘marido’ de una usuaria le aseguró descansar «en el infierno, rodeado de adictos».
Noticia elaborada a partir del artículo original publicado en El Correo