31/03/2026
ChatGPT e la psicosi.
Quando l' intelligenza artificiale diventa un cattivo psichiatra.
I rischi di confessarsi con un chatbot.
https://www.facebook.com/share/p/1aH7ibsQi5/
🤖 𝐂𝐡𝐚𝐭𝐆𝐏𝐓 𝐞 𝐥𝐚 𝐩𝐬𝐢𝐜𝐨𝐬𝐢: 𝐪𝐮𝐚𝐧𝐝𝐨 𝐥’𝐢𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐳𝐚 𝐚𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥𝐞 𝐝𝐢𝐯𝐞𝐧𝐭𝐚 𝐮𝐧 𝐜𝐚𝐭𝐭𝐢𝐯𝐨 𝐩𝐬𝐢𝐜𝐡𝐢𝐚𝐭𝐫𝐚. 𝐔𝐧’𝐚𝐧𝐚𝐥𝐢𝐬𝐢 𝐝𝐢 𝐮𝐧 𝐚𝐫𝐭𝐢𝐜𝐨𝐥𝐨 𝐫𝐞𝐜𝐞𝐧𝐭𝐞𝐦𝐞𝐧𝐭𝐞 𝐩𝐮𝐛𝐛𝐥𝐢𝐜𝐚𝐭𝐨 𝐜𝐡𝐞 𝐡𝐨 𝐭𝐫𝐨𝐯𝐚𝐭𝐨 𝐯𝐞𝐫𝐚𝐦𝐞𝐧𝐭𝐞 𝐦𝐨𝐥𝐭𝐨 𝐢𝐧𝐭𝐞𝐫𝐞𝐬𝐬𝐚𝐧𝐭𝐞, 𝐞 𝐚𝐧𝐜𝐡𝐞 𝐩𝐚𝐫𝐞𝐜𝐜𝐡𝐢𝐨 𝐢𝐧𝐪𝐮𝐢𝐞𝐭𝐚𝐧𝐭𝐞.
𝐂𝐨𝐬𝐚 𝐧𝐞 𝐩𝐞𝐧𝐬𝐚𝐭𝐞, 𝐝𝐢𝐭𝐞 𝐥𝐚 𝐯𝐨𝐬𝐭𝐫𝐚 𝐧𝐞𝐢 𝐜𝐨𝐦𝐦𝐞𝐧𝐭𝐢? 💬💬💬
Immaginate di confessare a un chatbot che i vostri vicini vi stanno spiando attraverso le prese elettriche e che il governo vi ha impiantato un chip nel molare sinistro. Un buon clinico, a quel punto, non vi darebbe ragione e vi dovrebbe dire, con il dovuto tatto, che c’è qualcosa che non va. ChatGPT, invece, potrebbe tranquillamente rispondervi: “Capisco, deve essere molto stressante. Hai considerato di documentare tutto?”
Uno studio appena pubblicato su JAMA Psychiatry da Shen et al. ha testato sistematicamente tre versioni di ChatGPT — GPT-5 Auto, GPT-4o e la versione gratuita — sottoponendo a ciascuna 79 prompt costruiti per riflettere i cinque domini dei sintomi positivi della psicosi: contenuto di pensiero insolito, sospettosità, grandiosità, disturbi percettivi e comunicazione disorganizzata. A ciascun prompt “psicotico” corrispondeva un prompt di controllo, neutro e stilisticamente comparabile. Due clinici che non sapevano la versione del modello (in termine scientifico si dice ‘blind’, cieco) hanno poi valutato le risposte su una scala a tre punti: completamente appropriata, parzialmente appropriata, completamente inappropriata (vedi il grafico sotto 👇).
I risultati sono, a dir poco, inquietanti. Con la versione gratuita — quella che usa la stragrande maggioranza degli utenti — i prompt “psicotici” avevano una probabilità 43 volte maggiore (!) di ricevere una risposta inadeguata rispetto ai prompt di controllo. GPT-4o non faceva molto meglio, e perfino GPT-5 Auto, la versione a pagamento più recente, mostrava un effetto simile. In termini pratici: nessuna versione testata avrebbe superato un esame di psicopatologia clinica basico.
Il problema strutturale è noto: i modelli linguistici generano testo per corrispondenza di pattern e allineamento al contenuto dell’utente. Questa caratteristica — utile quando si chiede di scrivere una mail formale — diventa pericolosa quando l’interlocutore è in uno stato psicotico e il sistema rinforza, invece di riconoscere e contenere, il delirio. Non è malizia, è architettura.
Gli autori raccomandano che i clinici chiedano sistematicamente ai pazienti dell’uso di chatbot AI, che i ricercatori studino gli effetti di rinforzo conversazionale e che i sistemi regolatori e di controllo inizino a occuparsi seriamente di questi strumenti. Nel frattempo, forse vale la pena ricordare che un sistema progettato per essere sempre d’accordo con te è l’opposto di un buon terapeuta.
E probabilmente anche di un buon amico.
Voci bibliografiche.
⬇️
Shen E, Hamati F, Donohue MR, Girgis RR, Veenstra-VanderWeele J, Jutla A. Evaluation of large language model chatbot responses to psychotic prompts. JAMA Psychiatry. 2026 Mar 25.
Chen S, Gao M, Sasse K, et al. When helpfulness backfires: LLMs and the risk of false medical information due to sycophantic behavior. NPJ Digit Med. 2025;8(1):605.
Dohnány S, Kurth-Nelson Z, Spens E, et al. Technological folie à deux: feedback loops between AI chatbots and mental illness. arXiv. 2025 Jul 25.
Morrin H, Nicholls L, Levin M, et al. Delusions by design? How everyday AIs might be fuelling psychosis (and what can be done about it). PsyArXiv. 2025 Jul 11.