vai alla home introduttiva di Pillole.org
  Pillole 
   
 
Iscritti
Utenti: 2344
Ultimo iscritto: pietromela
Iscritti | ISCRIVITI
 
Intelligenza Artificiale in Medicina - Parte prima
Inserito il 22 febbraio 2026 da admin. - Medicina digitale - segnala a: facebook  Stampa la Pillola  Stampa la Pillola in pdf  Informa un amico  

In questa serie di pillole verrà affrontata un'analisi critica dell'uso della Intelligenza Artificiale (AI) in medicina.


Quando la macchina spiega senza capire

I sistemi di AI per la diagnosi differenziale producono spiegazioni convincenti. Il problema è che queste spiegazioni potrebbero non riflettere ciò che il modello ha davvero calcolato. Cosa significa per chi deve prendere decisioni cliniche — e cosa chiede ora la normativa europea?

Era una notte di guardia come tante. Un uomo di 62 anni, iperteso e sovrappeso, arrivava con dispnea ingravescente comparsa nelle ultime tre ore, febbre a 38.2, tosse produttiva. La radiografia del torace mostrava un’opacità al lobo inferiore destro. Il sistema di supporto decisionale adottato dal reparto restituiva, in sei secondi, una lista ordinata: polmonite batterica, 74%; embolia polmonare con infarto, 14%; scompenso cardiaco acuto, 8%.
Fin qui, niente di insolito. Ma sotto i numeri c’era una spiegazione articolata: “l’ipotesi di polmonite è supportata dalla presenza di febbre, dall’opacità lobare destra e dal pattern di esordio. L’embolia è meno probabile in assenza di fattori di rischio tromboembolici recenti documentati.” Il medico aveva già la penna in mano per prescrivere l’antibiotico.
Quello che la spiegazione non diceva — e che il sistema probabilmente non aveva considerato con il peso adeguato — era che il paziente aveva fatto un volo transcontinentale quattro giorni prima. L’informazione era nella cartella, ma era stata inserita in un campo di testo libero, fuori dal perimetro strutturato su cui il modello era addestrato. L’embolia c’era. La spiegazione era coerente. Il ragionamento era sbagliato.
Questo caso — ricostruito a scopo illustrativo ma fedele a dinamiche reali documentate in letteratura — mette a fuoco un problema che riguarda ogni clinico che usa o userà strumenti di AI: la spiegazione che un sistema produce può essere convincente senza essere causalmente accurata. Può sembrare una finestra sul ragionamento del modello quando è, invece, uno specchio su ciò che il clinico si aspetta di leggere.

(Continua)


Fausto Bodini




Letto : 4 | Torna indietro | Stampa la Pillola | Stampa la Pillola in pdf | Converti in XML
 
© Pillole.org 2004-2026 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
A  A  A  | Contatti | Realizzato con ASP-Nuke 2.0.7 | Versione stampabile Versione stampabile | Informa un amico | prendi i feed e podcasting di Pillole.org
ore 06:42 | 116080876 accessi| utenti in linea: 6358