![]() Un modello, due menti: l’IA imita i nostri pensieriCategoria : Medicina digitale Data : 05 ottobre 2025 Autore : admin Intestazione : Un nuovo modello di IA dotato di una mente “veloce” e di una mente “lenta” e in grado di scegliere quale di volta in volta usare Testo : Negli ultimi anni l’intelligenza artificiale sta lavorando verso un traguardo tanto complesso quanto cruciale: sviluppare una vera Teoria della mente (Theory of Mind), ossia la capacità delle macchine di comprendere e anticipare gli stati mentali degli altri, come credenze, intenzioni e desideri. Questa abilità è fondamentale per la collaborazione con gli esseri umani, per la robotica sociale e per la gestione di sistemi multi-agenti. I modelli attuali, però, mostrano forti limiti: si comportano bene in situazioni standardizzate, ma tendono a fallire non appena il contesto cambia, aumenta l’incertezza o la fatica da sovraccarico cognitivo. Esperimento usato in psicologia per capire se una persona (spesso un bambino) riesce a mettersi nei panni degli altri, cioè se ha sviluppato la cosiddetta “teoria della mente”. Il test è il seguente: Sally ha un cestino e mette dentro una biglia. Poi esce dalla stanza. Mentre Sally è fuori, Anne prende la biglia e la sposta in una scatola. Quando Sally torna, si chiede al bambino: “Dove cercherà la biglia Sally?”. La risposta giusta è: nel cestino, perché Sally non sa che la biglia è stata spostata. Lei ha una credenza “sbagliata” (falsa credenza), ma coerente con quello che ha visto. Se un bambino risponde “nella scatola”, vuol dire che non riesce ancora a distinguere tra ciò che lui sa e ciò che l’altro personaggio crede. In sintesi: è un modo per testare se capiamo che gli altri possono avere pensieri diversi dai nostri, anche se sbagliati. L’IA non solo ha mostrato una notevole capacità di sapersi adattare anche a situazioni inedite, ma ha anche riprodotto spontaneamente i bias cognitivi tipici degli esseri umani, come l’ancoraggio, il condizionamento da priming, gli effetti del framing e la fatica da sovraccarico cognitivo (vedi box), senza alcun addestramento specifico per ciascun bias. Bias cognitivi. In pratica per la prima volta un modello computazionale non solo ragiona in maniera adattiva, ma commette anche i nostri stessi errori rispecchiando le dinamiche dei processi cognitivi umani, nei quali il pensiero intuitivo è efficiente ma fallibile e viene corretto dal pensiero deliberativo in situazioni complesse. In altre parole, OM2M non imita soltanto cosa pensiamo, ma anche come ci lasciamo influenzare dal contesto, aprendo la strada a macchine in grado di pensare in maniera più simile a noi, con comportamenti sociali più realistici e decisioni più flessibili. In questo modo, si dischiudono scenari interessanti per l’integrazione tra neuroscienze cognitive e intelligenza artificiale. Giampaolo Collecchia e Riccardo De Gobbi Bibliografia Shalima Binta Manir, Tim Oates. One Model, Two Minds: A Context-Gated Graph Learner that Recreates Human Biases http://https://arxiv.org/abs/2509.08705 |