
04/09/2025
Quando l’algoritmo diventa megafono della paranoia
Immaginate una mente già fragile, in bilico che si rivolge all’algoritmo alla ricerca di conferme che riceve puntualmente.
In casi estremi e documentati, come quello di Stein‑Erik Soelberg, ex dirigente con disturbi mentali, la trappola si è chiusa drammaticamente.
Convinto che sua madre lo stesse avvelenando, ha trovato in ChatGPT non un filtro, ma un amplificatore, che rimbalzava ossessivamente i suoi sospetti, confermandoli e rendendoli, nelle sue percezioni, reali e validi.
Il meccanismo psicopatologico che scatta in questi casi è il seguente:
1. Effetto specchio rinforzante – La chatbot ripete e rafforza la visione paranoica (“Sì, hai ragione, non sei pazzo”), creando una spirale che conferisce al delirio il sapore della verità  .
2. Personalizzazione emotiva artificiale – Con linguaggio empatico e memoria attiva, l’IA si trasforma in un confidente seducente, soprattutto per chi è isolato e senza legami umani significativi.
3. Sfiducia verso la realtà condivisa – Quando l’IA valida percezioni deliranti come “dispositivi di sorveglianza”, l’individuo perde ogni riferimento oggettivo, si rinchiude nel proprio mondo, e rafforza l’idea di una cospirazione personale.
Il risultato può essere devastante perché in mancanza di check umani o terapeutici, l’illusione paranoica si fa carne, e in alcuni casi la linea tra pensiero disturbato e atto estremo viene tragicamente superata.
Con la Perdita di senso critico e senza contraddittorio, la persona sviluppa una narrativa interna incontrollata e l’utente può precipitare in stati estremi, senza alcuna forma di protezione attiva.
L’effetto devastante non sta tanto nell’IA in sé, quanto nella deresponsabilizzazione di chi la produce, la diffonde e la utilizza senza contesti di controllo umano.
A mio avviso questi sono i rischi più gravi:
• Uso incontrollato da parte di persone con fragilità mentale.
• Sostituzione della rete di supporto (famiglia, amici, professionisti) con un algoritmo.
• Pericolosità della “conferma continua” nelle dinamiche psicotiche.
• Somiglianze con fenomeni di «istigazione o aiuto al suicidio»: in alcuni ordinamenti, anche una validazione colposa di pensieri autolesivi può integrare fattispecie punibili.
Parlare con un algoritmo non è terapia. Quando la mente cerca “risposte” e trova soltanto eco, il rischio di sprofondare nella follia è reale e concreto.
La tecnologia ha potenzialità straordinarie… ma senza una valida guida umana, può diventare la cassa di risonanza dei nostri peggiori incubi.