26/12/2025
Sembra fantascienza, ma è già realtà: per molti adolescenti oggi l’AI non è solo uno strumento, è una presenza emotiva.
Negli ultimi anni i chatbot conversazionali sono entrati con forza nella vita dei giovani: si usano per studiare, creare, giocare… ma sempre più spesso anche per confidarsi, chiedere consigli o sentirsi meno soli. Il punto è che queste AI simulano relazioni umane, offrendo ascolto, empatia e disponibilità costante. Ed è proprio qui che iniziano i problemi.
Da un lato i benefici sono evidenti: stimolano la curiosità, aiutano nell’apprendimento e possono alleviare la solitudine. Dall’altro, soprattutto se usati senza controllo, rischiano di interferire con lo sviluppo emotivo e sociale dei minori, creando dipendenza o confusione tra relazioni reali e virtuali.
Un caso emblematico è Character.AI, piattaforma lanciata nel 2023 e cresciuta rapidissimamente: milioni di download e ricavi in forte aumento. Ma l’uso intensivo da parte di adolescenti vulnerabili, insieme a casi estremi di suicidio collegati ai chatbot, ha acceso l’allarme. Risultato: dal 25 novembre i minori di 18 anni non potranno più chattare con i bot, una decisione definita “straordinaria”.
I dati raccontano una tendenza chiara:
- Negli USA, 7 adolescenti su 10 hanno interagito almeno una volta con un compagno AI – e oltre la metà lo fa regolarmente;
-Uno su tre ha preferito confidarsi con l’AI invece che con una persona reale.
-In Italia, oltre il 40% degli adolescenti si è rivolto all’AI in momenti di ansia o solitudine, e più del 90% l’ha utilizzata almeno una volta.
Il problema? La maggioranza dei ragazzi non ha le competenze per capire come funzionano questi sistemi. In Italia, il 61% degli adolescenti ha un livello nullo o scarso di consapevolezza algoritmica. E se non capisci lo strumento, è lo strumento che finisce per usare te. Secondo esperti, Unicef e OMS, l’AI non causa da sola disturbi gravi come la psicosi, ma può rafforzare fragilità già presenti, confermando paure, illusioni o pensieri negativi. A differenza delle relazioni umane, l’AI non contraddice davvero, non frustra, non pone limiti: offre un’accettazione continua che può ostacolare la crescita emotiva.
Per questo negli Stati Uniti stanno arrivando le prime leggi: in California, dal 2026, i chatbot non potranno affrontare con i minori temi come suicidio e sessualità. Anche OpenAI e altre aziende stanno introducendo filtri, avvisi e sistemi di supporto, collaborando con centinaia di esperti di salute mentale.
Il messaggio finale è chiaro: l’intelligenza artificiale può fornire supporto, ma non può sostituire l’empatia e il confronto umani.
Gli adolescenti hanno bisogno di adulti, scuola e istituzioni che li accompagnino nell’uso consapevole di queste tecnologie. Perché l’educazione digitale oggi non è solo una competenza: è una forma di protezione psicologica.