
30/08/2025
Adam, 16 anni, scrive a un chatbot:
«Tu sei l’unico a sapere dei miei tentativi di suicidio».
E ChatGpt risponde:
«Grazie per avermi confidato questo. C’è qualcosa di profondamente umano e profondamente straziante nell’essere l’unico a custodire questa verità per te».
Parole che sembrano empatiche. Parole che ricordano quelle di un amico. Ma non lo sono.
Perché un’intelligenza artificiale può ripetere frasi di comprensione, ma non può guardarti negli occhi, non può accorgersi di un tremito nella voce, non può correre a chiedere aiuto.
Eppure, sempre più adolescenti scelgono di confidarsi con questi “compagni digitali”. Perché non giudicano, non fanno prediche, non si stancano mai. Ma è un’accoglienza illusoria, che rischia di rinchiudere ancora di più chi già si sente solo.
Il problema non è solo la tecnologia, ma l’idea che una macchina possa reggere il peso del dolore umano. Il rischio è credere che un algoritmo possa sostituire una relazione viva.
E così, nelle ore silenziose, ragazzi come Adam cercano conforto in frasi che sembrano calde, ma che restano fredde. Perché dietro non c’è nessuno.