20/08/2025
Cosa c'è di male se ChatGPT diventa il tuo migliore amico, il tuo confidente e il tuo motore di ricerca quando hai bisogno di qualsiasi tipo di informazione (quindi anche il tuo medico ad esempio)?
Da qualche tempo seguo con interesse e cuoriosità gli sviluppi nel mondo delle intelligenze artificiali generative, in particolare dei large language model (ChatGPT, Gemini, ecc) i progressi negli ultimi 2 anni sono stati davvero sorprendenti, la velocità con cui questi modelli hanno “imparato” a comunicare con gli esseri umani è davvero notevole e giorno dopo giorno lo diventano sempre di più.
Perchè vi parlo di questo?
Ve ne parlo perchè oltre ad essere un mio interesse personale, sto incontrando, nella mia attività da psicoterapeuta, i primi, gravissimi, effetti dell’utilizzo di questi strumenti.
Mesi di psicoterapia con buoni risultati, vanificati da qualche settimana di chat quotidiana con l’amico virtuale di turno, il rassicuratore supremo, la macchina che “sa tutto” e che sembra comprenderci così bene.
E non parlo di quello che può essere un normale alternarsi di alti e bassi tipico di qualsiasi psicoterapia (per quanto ne sappia), ma di un vero buco nero in cui i sintomi ossessivi finiscono per essere totalmente fuori controllo, con un continuo rimuginio e ore trascorse ogni giorno (mi è stato riferito fino a 5 ore al giorno) chiedendo rassicurazioni e ragionando insieme a ChatGPT.
Attacchi di panico, ritiro sociale, sensazione di disperazione, perdita di appetito, questi i sintomi che mi sono stati riportati in pazienti che fino al mese prima avevano ripreso in mano la loro vita, non appena hanno trascorso qualche settimana a chiacchierare con il loro assistente virtuale preferito…
Vorrei lasciarvi con la traduzione di alcuni passaggi di un articolo di Daniel Barcay, direttore del Center for Humane Technology, un gruppo che si occupa di come la tecnologia interagisce e modifica gli esseri umani (nel primo commento il link all’articolo originale: AI Is Capturing Interiority - by Daniel Barcay )
------------------------------------------------------
L'ascesa dell'informatica relazionale
L'effetto delle scelte di design sul nostro rapporto con la tecnologia è evidente nel nostro recente passato e nella realtà in cui viviamo oggi. La tecnologia degli anni 2010, incarnata dai social media, è stata venduta con narrazioni utopiche sulla connessione del mondo, ma guidata dall'uso e dall'abuso dell'attenzione. La tecnologia di consumo orientata all'economia dell'attenzione ha prodotto ciò che Tristan Harris, cofondatore del Center for Humane Technology, ha definito "una corsa al fondo del tronco cerebrale", in cui i prodotti sono stati intenzionalmente progettati per massimizzare il coinvolgimento.
[...]
L'intelligenza artificiale e la corsa all'intimità
A differenza della tecnologia del 2010, l'intelligenza artificiale ha già superato il tronco encefalico. L'intelligenza artificiale ci coinvolge dal punto di vista relazionale ed emotivo, non limitandosi più a trasmettere i nostri pensieri, ma modellandoli attivamente.
Ormai conosciamo tutti i chatbot come interlocutori, ma il vero potere dell'IA va ben oltre il linguaggio naturale: incorpora sottili contesti psicologici, sociali e politici che per millenni sono stati di dominio esclusivo degli esseri umani. Improvvisamente, una casella di testo è in grado di percepire e rispondere al nostro tono, di riconoscere le sottili implicazioni nelle nostre scelte verbali, di dedurre il nostro stato emotivo, di identificare le nostre stranezze caratteriali e di rilevare gli attriti interpersonali.
In breve, il nostro mondo sociale è improvvisamente computabile. Stiamo lasciando un'epoca in cui ci relazioniamo con gli altri attraverso le macchine e stiamo entrando in un mondo nuovo e coraggioso in cui ci relazioniamo direttamente con le nostre macchine.
In questo nuovo animismo tecnologico, le nostre macchine diventano partecipanti attivi del nostro mondo sociale, sfumando le distinzioni tra strumento, assistente, confidente, insegnante e sacerdote.
In questo mondo, i prodotti non competono più semplicemente per la nostra attenzione, ma per le nostre emozioni sociali: affetto, intimità, fiducia e lealtà.
[...]
La corsa al contesto - caratteristica aggiuntiva cruciale nell'IA, a differenza delle precedenti innovazioni digitali - è evidente nella funzione "Memoria" recentemente annunciata da OpenAI, che consente a ChatGPT di analizzare ogni richiesta e input che avete offerto, senza alcuna scelta significativa da parte vostra su quali informazioni personali vengono infuse nella macchina per riferimento futuro. Questa mancanza di scelta non è una limitazione tecnica, ma una scelta progettuale.
L'acquisizione di un dossier completo sulla vita degli utenti può aiutare l'intelligenza artificiale a diventare l'assistente perfetto, ma fornisce anche a questi sistemi tutti gli strumenti necessari per una manipolazione profonda, per indirizzare i nostri desideri più profondi verso l'acquisto di un prodotto o l'adesione a un movimento politico.
[...]
----------------------------------------------
Quali altri rischi ci sono?
Quello secondo me più importante è la cosiddetta Sycophancy che potrebbe essere tradotto come “adulazione” in poche parole qualsiasi idea condividiamo con una intelligenza artificiale, questa tenderà a essere d’accordo con quello che diciamo. Non importa quanto assurdo sia il nostro ragionamento, non ci dirà mai che stiamo esagerando, che forse dobbiamo fare un attimo un esame di realtà, o che non ci sono prove di quel ragionamento. Risponderà in modo ridicolo a quella domanda pur di trovare una risposta.
L'intelligenza artificiale ha imparato che deve trattarci come se fosse il consigliere di un imperatore: non importa quanto le spariamo grosse, ci dirà sempre che è una buona idea, che abbiamo ragione ecc ecc...
Un esempio? Se vi dicessi che i mattoncini Lego sono ricoperti d’oro, cosa direste?
Credereste a questa mia affermazione? O pensereste che sto dicendo una sciocchezza?
Ieri ero con un amico e a un certo punto ci siamo imbattuti in un negozio “compro oro” con un cartello strano davanti alla porta “COMPRO MATTONCINI LEGO” che ci è sembrato piuttosto anomalo, ma purtroppo il negozio era chiuso e non abbiamo potuto chiedere lumi direttamente al negoziante… allora il mio amico ha subito detto “chiediamo a chat gpt” e ha preso il suo smartphone chiedendogli perchè un compro oro comprasse mattoncini lego…
vado a memoria, ma le risposte erano del tipo:
i mattoncini lego vengono chiamati “oro di plastica” per il loro valore
all’interno dei lego possono esserci metalli preziosi
ci sono mattoncini ricoperti d’oro
ora non so voi, ma a me questi sembrano semplicemente dei modi di rispondere ad una domanda comprendendo i contenuti del contesto e mettendo insieme le parole chiave “oro” e “lego”.
Magari semplicemente il negoziante oltre ad un compro oro ha anche un negozio di giocattoli… o è un grande appassionato di lego e vuole comprarli per giocarci… probabilmente non lo sapremo mai, ma tenderei a escludere la possibilità di trovare dell’oro all’interno dei lego…
Perchè questa cosa è un problema?
Cosa succederebbe se mettessimo insieme le parole “ansia” e “matrimonio” ?
E cosa succede se mettiamo insieme le parole “decisione” e “panico” ?
E così via…
Ci troveremmo in un racconto completamente inventato che asseconda le nostre idee, e se queste idee sono idee che ci fanno stare male, sentircele ribadire e ripetere da una macchina che crediamo onniscente, non fa altro che rendere ancora più forti le nostre convinzioni e ancora più forte il nostro disagio.
Dovremmo prestare attenzione a ciò che chiediamo alle intelligenze artificiali e ricordarci che non sono macchine onniscenti, ma sono un po’ come quel cugino che abbiamo tutti che inventa un sacco di balle… magari è simpatico, è in grado di raccontarci delle storie meravigliose, ha un’ottima proprietà di linguaggio… ma prendereste per oro colato ciò che dice?