vai alla home introduttiva di Pillole.org
  Pillole 
   
 
Iscritti
Utenti: 2344
Ultimo iscritto: pietromela
Iscritti | ISCRIVITI
 
Intelligenza Artificiale in Medicina - Parte seconda
Inserito il 01 marzo 2026 da admin. - Medicina digitale - segnala a: facebook  Stampa la Pillola  Stampa la Pillola in pdf  Informa un amico  

In questa serie di pillole verrà affrontata un'analisi critica dell'uso della Intelligenza Artificiale (AI) in medicina.


Il problema non è l’errore. È la spiegazione dell’errore

I sistemi di AI per la diagnosi differenziale non sono algoritmi trasparenti. Non sono alberi decisionali dove ogni bivio è etichettato con una regola. Sono reti neurali profonde: architetture matematiche con centinaia di milioni o miliardi di parametri, addestrate su grandi dataset di dati clinici strutturati e non strutturati. Producono output statisticamente molto accurati su popolazioni ampie. Ma producono anche qualcosa che non è immediatamente riconoscibile come problematico: una spiegazione.
La spiegazione è generata dallo stesso meccanismo che produce la diagnosi. Non è il frutto di un processo separato di “introspezione” del modello sul proprio ragionamento. È un testo che il sistema ha imparato a produrre perché testi simili — coerenti, circostanziati, con la struttura argomentativa di una nota clinica — erano frequenti nel suo dataset di addestramento.
La spiegazione è ottimizzata per essere medicalmente plausibile. Non per essere causalmente accurata.
Questa distinzione è fondamentale. Un sistema può generare una spiegazione perfettamente coerente con la diagnosi sbagliata. Può anche generare spiegazioni diverse e ugualmente coerenti per lo stesso caso, se alcune variabili contestuali cambiano. In entrambi i casi, il clinico che legge la spiegazione ha l’impressione di capire il ragionamento del sistema. Quell’impressione può essere infondata.


Sincero non significa affidabile

Per capire perché questo accade, è utile introdurre una distinzione che la ricerca sull’AI ha formalizzato negli ultimi anni e che i clinici possono adottare come strumento concettuale immediato.
Infatti un sistema può essere sincero senza essere fedele. La sincerità riguarda le intenzioni: un sistema è sincero quando non produce deliberatamente affermazioni che sa essere false. La maggior parte dei sistemi clinici moderni è sincera in questo senso. Non c’è nessun meccanismo interno che costruisce consapevolmente una falsità. La fedeltà è un concetto diverso e più esigente: riguarda la corrispondenza causale tra la spiegazione e il processo che ha generato la risposta. Se il sistema afferma “ho ridotto la probabilità di embolia perché non erano presenti fattori di rischio documentati”, la fedeltà richiede che quella variabile abbia davvero pesato nel calcolo in modo determinante.

La differenza in termini pratici
Un sistema sincero non mente. Non costruisce una truffa.
Un sistema fedele produce spiegazioni che corrispondono causalmente al proprio calcolo interno.
Un sistema può essere sincero ma non fedele: genera spiegazioni genuine che però non riflettono accuratamente il processo che ha determinato la diagnosi.
È questo il caso più comune e il più insidioso


Il problema non è che il sistema ci inganni. È che il sistema è addestrato a produrre narrazioni convincenti, e lo fa indipendentemente dal fatto che quelle narrazioni descrivano fedelmente il proprio calcolo. Può fare entrambe le cose — calcolare e narrare — senza che le due operazioni siano sincronizzate

(Continua)

NB. La prima pillola di questa serie è stata pubblicata il 22 febbraio 2026.


Fausto Bodini




Letto : 4 | Torna indietro | Stampa la Pillola | Stampa la Pillola in pdf | Converti in XML
 
© Pillole.org 2004-2026 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
A  A  A  | Contatti | Realizzato con ASP-Nuke 2.0.7 | Versione stampabile Versione stampabile | Informa un amico | prendi i feed e podcasting di Pillole.org
ore 07:50 | 116080876 accessi| utenti in linea: 9853