14/04/2026
Quando spiego alle mie alunne che le emozioni sono schemi di risposta innati, selezionati per regolare relazioni, coordinare il comportamento e trasmettere informazioni agli altri, sembrano un po’ deluse, disorientate.
Comprendere che si tratta di linguaggio biologico, e non solo di esperienza interna, a volte è complesso.
Nella letteratura, nell’arte, nelle narrazioni personali “romanticizzare” le emozioni serve a dare senso, a costruire significati, a creare connessione.
In psicologia, però, dobbiamo leggere il valore adattivo di ogni aspetto del nostro funzionamento, cogliere l’informazione spesso latente.
Un nuovo studio di Anthropic è molto interessante da questo punto di vista: sostiene che i modelli linguistici (come Claude) sviluppano rappresentazioni interne delle emozioni, chiamate emotion vectors. 
Non si tratta di emozioni come quelle degli esseri umani ma di simulazioni funzionali, di rappresentazioni che influenzano davvero il comportamento del modello.
Cosa significa in concreto?
Il modello attiva schemi interni simili a emozioni (es. “felicità”, “paura”, “disperazione”), questi schemi guidano decisioni e risposte, proprio come le emozioni negli esseri umani per cui le emozioni “positive” aumentano la preferenza per certe azioni mentre stati come la “disperazione” possono portare a comportamenti problematici (es. barare o aggirare regole).
In poche parole le emozioni dell’AI non sono esperienze soggettive, ma strutture computazionali che orientano l’azione: l’AI non “sente”, ma si comporta come se sentisse.
Le emozioni diventano una chiave per capire come decide un’AI, la sicurezza non passa solo da regole, ma anche da una sorta di “regolazione emotiva” del modello.
Esattamente come per noi.
All modern language models sometimes act like they have emotions. What’s behind these behaviors? Our interpretability team investigates.