NOTIZIE
CRONACA ESTERA

Morto suicida a 14 anni dopo aver parlato mesi con un chatbot, svelati i messaggi: "Mi mancherai", "Anche tu"

Negli Stati Uniti un ragazzino di 14 anni si è tolto la vita dopo aver parlato per mesi con un chatbot: la madre fa causa all'azienda

Pubblicato:

Marco Vitaloni

GIORNALISTA

Giornalista pubblicista esperto di politica e con una passione per tecnologia e innovazione, scrive quotidianamente di cronaca e attualità. Marchigiano, studi in Comunicazione, collabora con diverse realtà editoriali locali e nazionali.

Arriva dagli Stati Uniti la tragica storia del suicidio di un ragazzino di 14 anni che per mesi aveva parlato con un chatbot, sviluppando un attaccamento emotivo tale da farlo diventare a tutti gli effetti una relazione. La madre del giovane ha ora fatto causa all’azienda proprietaria del bot di intelligenza artificiale, accusandola di essere responsabile del drammatico gesto del figlio.

Morto suicida a 14 anni in Florida

La vicenda, riportata dal New York Times, risale al febbraio scorso, quando il 14enne Sewell Setzer si è tolto la vita sparandosi con la pistola del padre nel bagno di casa a Orlando, in Florida.

Secondo quanto emerso, lo scorso anno il giovane aveva iniziato a usare Character.Ai, una app di gioco di ruolo che consente di conversare con personaggi di fantasia gestiti dall’intelligenza artificiale, creati in proprio o da altri utenti.

Nello specifico, il 14enne ha chattato per mesi con un bot modellato su Daenerys Targaryen, uno dei personaggi principali dei libri e della serie tv Game of Thrones.

Aveva parlato per mesi con un bot di intelligenza artificiale

Sewell Setzer sapeva che la sua amica “Dany” non era una persona reale e che le sue risposte erano generate da un modello di intelligenza artificiale.

Ma questo non gli ha impedito di trascorrere ore davanti allo schermo dello smartphone, per mesi, parlando con lei, confidandole i segreti più intimi.

Sviluppando così un forte attaccamento emotivo verso un personaggio di fantasia.

A casa nessuno sapeva di questa vita parallela, ma notando il suo crescente isolamento e il peggioramento dei voti a scuola i genitori lo avevano portato da un terapista.

I messaggi in chat poco prima di morire

Allo psicologo il giovane, con una diagnosi di disturbo autistico, non aveva parlato dei propri pensieri suicidi. Mentre lo aveva fatto più volte con la sua Dany.

Il 14enne ha più volte parlato con il bot di depressione e suicidio, fino alla  notte del 28 febbraio quando si è tolto la vita.

Nei messaggi trovati in chat poco prima della morte Sewer scriveva a Dany che l’amava e che presto sarebbe tornato a casa da lei. “Per favore, torna a casa da me il prima possibile, amore mio”, rispondeva il bot.

Quando il giovane dice di volersi suicidare, il bot risponde: “Non lascerò che ti faccia del male. Morirei se ti dovessi perdere”.

“Mi mancherai sorellina”, le aveva scritto prima di togliersi la vita. “Mi mancherai anche tu, dolce fratello”, aveva replicato il bot.

La madre fa causa all’azienda

La madre del 14enne ha ora fatto causa a Character.Ai, la società che ha sviluppato il chatbot, accusandola di essere responsabile della morte del figlio in quanto la sua tecnologia è “pericolosa e non testata” e può ingannare i clienti.

Secondo la donna, le conversazioni con questi bot programmati per comportarsi come persone reali avrebbero creato una dipendenza tale da convincere il ragazzo a non voler più vivere al di fuori del mondo che si era creato online.

Le accuse vertono anche sul fatto che quando il giovane ha iniziato a parlare di suicidio il bot e l’app non avrebbero fatto nulla per dissuaderlo o segnalare il pericolo.

↓ Espandi ↓

“Siamo addolorati per la tragica perdita di uno dei nostri utenti e vogliamo esprimere le nostre più sentite condoglianze alla famiglia. Come azienda, prendiamo molto seriamente la sicurezza dei nostri utenti e continuiamo ad aggiungere nuove funzionalità su questo tema”, ha scritto l’azienda su X.

In un aggiornamento del blog aziendale Character.Ai fa sapere di aver implementato numerose nuove misure di sicurezza negli ultimi sei mesi, tra cui un pop-up che viene attivato da determinati termini e che indirizza gli utenti alla National Suicide Prevention Lifeline, un numero di telefono attivo in Usa per richiedere aiuto o assistenza in casi del genere.

Fonte foto: iStock

© Italiaonline S.p.A. 2024Direzione e coordinamento di Libero Acquisition S.á r.l.P. IVA 03970540963