Dottoressa Rosaria Nocera Psicologo Psicoterapeuta Palermo

Dottoressa Rosaria Nocera Psicologo Psicoterapeuta Palermo Dottoressa Rosaria Nocera Psicologo Psicoterapeuta, individuale, di coppia e di gruppo con studio a Palermo

26/12/2025

Sembra fantascienza, ma è già realtà: per molti adolescenti oggi l’AI non è solo uno strumento, è una presenza emotiva.
Negli ultimi anni i chatbot conversazionali sono entrati con forza nella vita dei giovani: si usano per studiare, creare, giocare… ma sempre più spesso anche per confidarsi, chiedere consigli o sentirsi meno soli. Il punto è che queste AI simulano relazioni umane, offrendo ascolto, empatia e disponibilità costante. Ed è proprio qui che iniziano i problemi.
Da un lato i benefici sono evidenti: stimolano la curiosità, aiutano nell’apprendimento e possono alleviare la solitudine. Dall’altro, soprattutto se usati senza controllo, rischiano di interferire con lo sviluppo emotivo e sociale dei minori, creando dipendenza o confusione tra relazioni reali e virtuali.
Un caso emblematico è Character.AI, piattaforma lanciata nel 2023 e cresciuta rapidissimamente: milioni di download e ricavi in forte aumento. Ma l’uso intensivo da parte di adolescenti vulnerabili, insieme a casi estremi di suicidio collegati ai chatbot, ha acceso l’allarme. Risultato: dal 25 novembre i minori di 18 anni non potranno più chattare con i bot, una decisione definita “straordinaria”.
I dati raccontano una tendenza chiara:
- Negli USA, 7 adolescenti su 10 hanno interagito almeno una volta con un compagno AI – e oltre la metà lo fa regolarmente;
-Uno su tre ha preferito confidarsi con l’AI invece che con una persona reale.
-In Italia, oltre il 40% degli adolescenti si è rivolto all’AI in momenti di ansia o solitudine, e più del 90% l’ha utilizzata almeno una volta.

Il problema? La maggioranza dei ragazzi non ha le competenze per capire come funzionano questi sistemi. In Italia, il 61% degli adolescenti ha un livello nullo o scarso di consapevolezza algoritmica. E se non capisci lo strumento, è lo strumento che finisce per usare te. Secondo esperti, Unicef e OMS, l’AI non causa da sola disturbi gravi come la psicosi, ma può rafforzare fragilità già presenti, confermando paure, illusioni o pensieri negativi. A differenza delle relazioni umane, l’AI non contraddice davvero, non frustra, non pone limiti: offre un’accettazione continua che può ostacolare la crescita emotiva.
Per questo negli Stati Uniti stanno arrivando le prime leggi: in California, dal 2026, i chatbot non potranno affrontare con i minori temi come suicidio e sessualità. Anche OpenAI e altre aziende stanno introducendo filtri, avvisi e sistemi di supporto, collaborando con centinaia di esperti di salute mentale.
Il messaggio finale è chiaro: l’intelligenza artificiale può fornire supporto, ma non può sostituire l’empatia e il confronto umani.
Gli adolescenti hanno bisogno di adulti, scuola e istituzioni che li accompagnino nell’uso consapevole di queste tecnologie. Perché l’educazione digitale oggi non è solo una competenza: è una forma di protezione psicologica.

17/06/2025

Indirizzo

Via Catania N. 15
Palermo
90141

Orario di apertura

Lunedì 09:00 - 20:00
Martedì 09:00 - 20:00
Mercoledì 09:00 - 20:00
Giovedì 09:00 - 20:00
Venerdì 09:00 - 20:00

Telefono

+393208678428

Notifiche

Lasciando la tua email puoi essere il primo a sapere quando Dottoressa Rosaria Nocera Psicologo Psicoterapeuta Palermo pubblica notizie e promozioni. Il tuo indirizzo email non verrà utilizzato per nessun altro scopo e potrai annullare l'iscrizione in qualsiasi momento.

Contatta Lo Studio

Invia un messaggio a Dottoressa Rosaria Nocera Psicologo Psicoterapeuta Palermo:

Condividi

Share on Facebook Share on Twitter Share on LinkedIn
Share on Pinterest Share on Reddit Share via Email
Share on WhatsApp Share on Instagram Share on Telegram

Digitare