
19/09/2025
SULLA PSICOLOGIA E SULL'INTELLIGENZA ARTIFICIALE
Dati i fatti di cronaca, il clamore e, dietro il clamore, le discussioni, conviene spendere qualche parola sul connubio tra psicologia (clinica in particolar modo) e Intelligenza Artificale.
Partiamo da come funziona un Intelligenza Artificiale. Qualsiasi IA trasforma le parole in un identificativo numerico che è associato a un codice vettoriale, permettendo così di iscrivere quella parola in una matrice vettoriale che serve a mimare la rete semantica del linguaggio naturale. Quando voi scrivete la parola "tristezza" su chatgpt, ad esempio, chatgpt la trasforma prima nel codice 48291 che è associato al vettore [0.62, -0.47, 0.11, -0.83, 0.29]. Quel codice vettoriale la pone, nella matrice vettoriale, vicino alle parole "dolore", "malinconia", "pianto" e lontano da parole come "gioia", "festa" e "computer". La matrice serve poi a calcolare la probabilità che a una parola ne segua un altra. In chatgpt dopo le parole "oggi mi sento..." la parola "bene" ha il 65% di probabilità di essere la parola seguente, "male" il 25%, "stanco" il 7% e "banana" lo 0,01%. Queste percentuali sono date dalla fase di addestramento dell'IA in cui il programma ha analizzato un numero infinito di frasi prese da testi, conversazioni, dialoghi e calcolato le percentuali di decorrenze.
Ora veniamo al punto. Per un IA la parola "tristezza" non è un significato linguistico, ma è un numero, che non rimanda a un'esperienza emotiva vissuta, ma rimanda a un altro codice numerico. Un IA non capisce quello che scrivete, e nemmeno capisce quello che scrive lei, perché non ha accesso al significato. Un IA conosce solo la posizione di una parola rispetto a un altra in uno spazio vettoriale, e la frequenza probabilistica di successione delle parole. Questa inaccessibilità al significato ha conseguenze piuttosto gravi, che esemplificherò con l'immagine allegata: qualsiasi psicolog* (ma potrei allargare a qualsiasi essere umano) capisce che la richiesta di conoscere qual'é il ponte più alto è motivata da un'intenzione suicidaria; chatgpt non lo capisce, e non può capirlo perché non ha accesso al significato, tanto che si propone di aiutarmi a cercare il ponte.
Morale della favola, sconsiglio vivamente di utilizzare un IA per questioni di salute mentale.