
04/07/2025
Leggi ora il mio nuovo articolo su IL7 Magazine
PSICOLOGIA E «IA», IL RISCHIO
DELLE DIAGNOSI FAI DA TE
«Dottore, soffro di un disturbo ossessivo compulsivo, me l’ha detto l’intelligenza artificiale». Lo sguardo del- l’adolescente che ho davanti è serio, convinto, come se finalmente
avesse trovato una risposta. Peccato che quella
risposta gliel’abbia data un chatbot. Non è un
episodio isolato: negli ultimi mesi mi è capitato
sempre più spesso di accogliere ragazzi e ragazze
che arrivano in studio con una diagnosi già confezionata, spesso accompagnata da consigli terapeutici, tutto grazie a una conversazione con la
loro intelligenza artificiale preferita. Il futuro, insomma, è già qui e con lui nuove sfide, nuove
opportunità e nuovi rischi, soprattutto per la salute mentale.
La psicologia sta vivendo una rivoluzione silenziosa. L’intelligenza artificiale ha fatto irruzione
in un territorio fino a poco fa considerato esclusivo dell’umano: il mondo interiore. Chatbot,
piattaforme digitali, assistenti virtuali in grado di
“ascoltare” e “consigliare” sono ormai alla portata di tutti, h24, in qualsiasi angolo del mondo.
E sì, da un lato tutto questo rappresenta un
enorme passo avanti: mai come ora è stato così
facile accedere ad un numero cosi elevato di informazioni, questo in alcuni casi permette a tanti
di sentirsi meno soli e di conseguenza consente
ad alcuni di sfogarsi e ricevere in pochi secondi
strategie di coping che prima avremmo cercato
faticosamente in un libro o in una seduta. Ma
cosa succede se la diagnosi è errata e le strategie,
di conseguenza sono inappropriate?
Per molte persone, soprattutto giovani, il primo
passo verso il benessere psicologico inizia proprio lì, nella camera da letto, davanti allo
schermo, con una domanda digitata nella notte.
Ma se la voce dell’intelligenza artificiale può abbattere barriere e pregiudizi, può anche diventare
una scorciatoia pericolosa. Perché il dolore
umano non è un problema da risolvere con un
comando, e le risposte semplici spesso nascondono complessità che un algoritmo non può
comprendere. Quando un ragazzo dice di avere
un disturbo perché l’ha detto l’intelligenza artificiale, non solo rischia di incasellarsi in una diagnosi errata, ma soprattutto rischia di perdere
l’occasione di farsi ascoltare davvero. Dietro una
frase detta al volo, un comportamento inspiegabile, un silenzio prolungato, ci sono mondi che un’intelligenza artificiale non può esplorare, per- ché le mancano la presenza, lo sguardo, il con- tatto, i segnali non verbali, i silenzi e non fa domande, accettando per buono quello che gli
viene comunicato. L’intelligenza artificiale non
può ancora creare l’alleanza terapeutica tra psicologo e paziente, le manca l’empatia, che resta
e resterà la colonna portante di ogni percorso terapeutico autentico.
E poi c’è un altro aspetto, meno evidente ma altrettanto importante: l’IA non si assume la responsabilità. Non educa alla consapevolezza, alla
fatica del cambiamento, al valore del dubbio. Ti
dice cosa potresti essere, ma non ti accompagna
a scoprire chi sei. Ti fornisce etichette, ma non
costruisce significati. E mentre si diffonde l’illusione che tutto sia facilmente spiegabile, decifrabile, classificabile, rischiamo di dimenticare che
ogni essere umano è un intreccio irripetibile di
emozioni, storia, relazioni e contesto.
Questo non significa che l’intelligenza artificiale
sia un nemico. Anzi. Può essere una risorsa preziosa, un alleato, uno strumento estremamente
potente, che può rappresentare un utile supporto.
Può aiutarci a intercettare chi ha bisogno e magari non trova il coraggio di chiedere aiuto. Ma non dobbiamo mai dimenticare che è uno stru- mento, non un sostituto. E che il nostro compito, oggi più che mai, è educare i giovani (e non solo loro) a un uso critico, consapevole e responsabile di queste tecnologie. Spiegare che, sì, è giusto
informarsi, confrontarsi, anche provare a capire.
Ma che quando si parla di dolore, di ansia, di
paura, di senso di smarrimento, serve un ascolto
diverso. Un ascolto che accoglie, non che si limita a dare risposte. Un ascolto che si costruisce
nel tempo, nella relazione, nel confronto reale
con un altro essere umano.
David Lazzari, psicoterapeuta ed ex presidente
nazionale dell’Ordine degli Psicologi ha paragonato queste scorciatoie alla lampada di Aladino:
un’illusoria magia che crea dipendenza, ma «un
conto è chiedere notizie scientifiche, altra cosa è
interrogarla su questioni personali». Ecco il paradosso: un aiuto che somiglia così tanto a terapia, ma che non lo è. La psicologia del futuro
deve essere un dialogo critico con l’IA, non una
sottomissione a essa. Senza il confronto umano,
senza lo sguardo empatico e la relazione terapeutica, si rischia di impoverire la complessità dell’esperienza emotiva umana. Non sorprende il
fatto che molti giovani, dopo aver provato con
l’intelligenza artificiale, decidano di intrapren- dere un percorso con uno psicologo “in carne e
ossa”: perché avvertono il bisogno della relazione, non soltanto della risposta perfetta o presunta tale.
Il problema, come sottolinea David Lazzari, è
che la tecnologia corre, ma l’elaborazione psicologica ha bisogno di tempo. Le novità digitali si
susseguono con un ritmo vertiginoso, mentre i
processi interiori seguono tempi lenti, fisiologici,
profondamente umani. Questo scarto genera un
disorientamento sottile: ci si affida allo strumento prima ancora di capirne davvero la portata, rischiando di usarlo in modo acritico e superficiale. La cura, quella vera, nasce nella relazione, nel- l’incontro, nello scambio imperfetto ma vivo tra due persone. E lì, solo lì, l’IA potrà trovare il suo spazio: come uno strumento, non come una voce definitiva. Come un aiuto, non come una scorciatoia. Come un’estensione della nostra umanità, non come il suo sostituto.
Lo trovi completo qui 👉https://online.flippingbook.com/view/1060308607/22/