10/12/2025
https://www.facebook.com/share/p/1BbfTyPDhC/
Condividiamo l’articolo del prof. Vittorio Lingiardi pubblicato su la Repubblica che riporta e sostiene questi contenuti.
“Milioni di persone, molte delle quali adolescenti, si rivolgono a chatbot e ad app per il benessere mentale come a fonti immediate di conforto, compagnia, orientamento emotivo. È la risposta più rapida, meno costosa e più accessibile a una solitudine che aumenta, a un sistema sanitario che diminuisce, a una domanda di cura che esplode.”
“Ma l’IA non nasce per ascoltare davvero. Nasce per generare testi plausibili, ottimizzare diagnosi precoci e cure in medicina, risolvere problemi tecnici. Non nasce per dire di no; nasce per compiacere. Non apprezza il silenzio, non riflette, sentenzia. Non è programmata per ‘tenere’ dentro di sé un dolore, come fa un terapeuta”.
“Il chatbot non ha una storia emotiva e non conosce quella del soggetto, non riconosce i non-detti, non vede il corpo, protagonista silenzioso di ogni psicoterapia . Genera quindi una falsa relazione”.
“L’American Psychological Association (APA) interviene con un documento-guida (Use of generative AI chatbots and wellness applications for mental health. An APA health advisory) come gesto di cura collettiva: un invito a distinguere, finalmente, ciò che potrebbe aiutare da ciò che fa sicuramente male.”
Come Consiglio Nazionale siamo vigili e attenti a questi temi a cui abbiamo dedicato un gruppo di lavoro specifico, dedicato alla tutela della salute psicologica di ogni persona, soprattutto dei giovani.