Sono molti gli ambiti in cui l’IA sta cambiando le nostre vite, nel bene e nel male. Uno degli ambiti più controversi è proprio la grief tech, un’industria in espansione che promette di tenere in vita i nostri cari che non ci sono più proprio attraverso l’intelligenza artificiale. Il lutto è uno degli aspetti più difficili dell’esperienza umana e la non accettazione della morte radica il dolore che questa fine suscita. Inevitabile quindi che le moderne tecnologie investissero in quest’ambito, promettendo veri e propri simulacri delle persone che non ci sono più, rendendoli via via sempre più credibili. Ormai la grief tech è in crescita da anni, ma un’ulteriore spinta è stata data dall’intelligenza artificiale, combinando tecnologie conversazionali e deep learning.
Grief tech: le app e i progetti
Una delle diverse app è 2Wai, co-fondata dall’ex star Disney, l’attore canadese Calum Worthy (conosciuto per la serie Austin & Ally). Grazie a quest’app è possibile trasformare tre minuti di filmato di una persona scomparsa in un avatar digitale con cui continuare a dialogare. L’attore sui suoi social ha affermato:” con 2Wai permettiamo nuove esperienze autentiche” promettendo una connessione che sia simile a quella umana. Esiste anche una start-up americana chiamata You, Only Virtual (YOV) che offre un chatbot che replica la voce e la personalità di una persona cara. Uno dei progetti più avanzati è però Project December, una piattaforma sviluppata da Jason Rohrer: già nel 2021 si parlava di questo progetto in quanto aveva permesso a un uomo di parlare con un’IA che simulava la sua fidanzata morta a causa di un tumore.
In Cina molta importanza è stata data alla dimensione visiva; infatti, alcune aziende hanno sviluppato avatar parlanti e ologrammi accessibili anche attraverso dispositivi VR. La società cinese Super Brain ha realizzato cloni vocali post-mortem con voci addestrate appositamente per consolare i familare. I costi sono elevati e vanno dai 1500 euro ai 3mila per la versione base.
La questione etica
Questi progetti, tuttavia, hanno sollevato diversi dilemmi etici molto complessi. Il primo dei quali è se simili metodi aiutino davvero a superare il trauma o se invece sono solo una fuga dal dolore. Un uso sano sarebbe possibile solo se è accompagnato da una terapia e soprattutto da una piena consapevolezza che quei bot o ologrammi non sono reali. Tuttavia, ciò non è facile perché questi avatar puntano ad essere sempre più complessi e fedeli. Altra tematica etica molto importante è quella della privacy postuma: nella maggioranza dei casi il defunto non ha potuto esprimere il suo consenso al trattamento dei dati usati per addestrare l’IA (chat, conversazioni, email, video, foto ecc). Dati che potrebbero essere impiegati anche da estranei per generare cloni senza che ci sia alcuna autorizzazione familiare.

