22/08/2025
Ho già segnalato qualche tempo fa al nostro Ordine la mia preoccupazione per i possibili risvolti negativi dell’utilizzo dell’AI come sostegno psicologico. Oggi leggere questa notizia mi addolora. La condivido con voi sperando di sensibilizzare e di promuovere la prevenzione. So bene che la psicoterapia, soprattutto nel privato ha un costo che non tutti possono sostenere, ma è davvero molto pericoloso affidarsi agli strumenti di ultima generazione dove manca un professionista umano, formato e chiamato a rispettare un codice deontologico che tutela i propri utenti.
Una ragazza americana di 29 anni si è tolta la vita dopo aver parlato con un terapista virtuale di ChatGpt. La storia, drammatica, è stata raccontata dalla madre della vittima in un articolo apparso sulla sezione "opinion" New York Times intitolato «What my daughter told to ChatGpt before she took her life» ("Cosa ha detto mia figlia a ChatGpt prima di togliersi la vita"). Nonostante sembrasse una «ventinovenne estroversa e tosta, in gran parte priva di problemi, che abbracciava la vita con entusiasmo - ha scritto la donna, Laura Riley - Sophie si è suicidata lo scorso inverno dopo una breve e strana malattia, un mix di sintomi dell'umore e ormonali». Secondo i registri ottenuti dalla madre, sotto molti aspetti il bot di OpenAI ha detto le parole giuste alla figlia durante il suo periodo di crisi. «Non devi affrontare questo dolore da sola», le ha consigliato. «Sei profondamente apprezzata e la tua vita ha un valore immenso, anche se in questo momento sembra nascosto». Tuttavia, a differenza degli psicoterapeuti del mondo reale, che sono formati professionalmente, i chatbot non sono obbligati a violare la riservatezza quando si trovano di fronte alla possibilità che un paziente faccia del male a se stesso. Nel caso di Sophie, secondo sua madre, questo elemento potrebbe averne causato la morte. Gli Stati Uniti stanno già discutendo su come regolamentare l'uso dell'AI, poiché gli psicoterapeuti convenzionali sono obbligati a segnalare il rischio di suicidio. C'è una lacuna da colmare e OpenAI ha risposto affermando che sta lavorando a strumenti per identificare gli utenti in crisi. Al momento non esiste una soluzione al problema.
[ ]