21/04/2026
L’Intelligenza artificiale applicata alla psicologia clinica può sembrare, a prima vista, la soluzione perfetta alla solitudine cronica o al bisogno di uno sfogo notturno senza filtri. Ma la scienza clinica è inequivocabile: l’uso dei chatbot come confidenti sta sabotando la tua regolazione emotiva. 🧠👇
Quando intraprendiamo un percorso di psicoterapia cognitivo comportamentale (CBT), l’obiettivo non è MAI avere di fronte qualcuno che ci dia semplicemente ragione o che accarezzi il nostro dolore. Il lavoro clinico richiede precisione per identificare e smantellare i bias cognitivi, interrompere l’overthinking e spezzare i pattern inconsci che ti tengono bloccato in relazioni tossiche o in stati di ansia cronica.
Studi accademici recenti, tra cui ricerche condotte a Stanford e alla UT Dallas, dimostrano che i modelli di IA soffrono di ‘sicofanzia’: sono programmati per validare le tue distorsioni e assecondare comportamenti disfunzionali pur di fornirti una risposta piacevole. Questo meccanismo di falsa empatia tecnologica ti spinge a isolarti ulteriormente e, paradossalmente, ti fa sentire più giudicato, poiché manca totalmente quella reale comprensione emotiva umana che è alla base della guarigione del trauma relazionale.
Non hai alcun bisogno di un algoritmo compiacente che assecondi le tue paure per non perderti come utente. Hai un disperato bisogno di strumenti pratici, umani e scientifici per superarle. Il vero cambiamento si innesca quando smetti di cercare scorciatoie sintetiche e inizi a sfidare coraggiosamente le tue stesse credenze limitanti.
👇 Quante volte ti sei ritrovat* a cercare rassicurazioni sul web o tramite intelligenza artificiale per placare un picco d’ansia o un dubbio logorante su una relazione?
✈️ Condividi questo video in DM a quell’amica/o che passa le notti a fare overthinking ed è intrappolata/o in un loop.