 |
 |
 |
 |
 |
| |
|
|
 |
Intelligenza Artificiale in Medicina - Parte prima |
 |
 |
Inserito il 22 febbraio 2026 da admin. - Medicina digitale - segnala a:
In questa serie di pillole verrà affrontata un'analisi critica dell'uso della Intelligenza Artificiale (AI) in medicina.
Quando la macchina spiega senza capire
I sistemi di AI per la diagnosi differenziale producono spiegazioni convincenti. Il problema è che queste spiegazioni potrebbero non riflettere ciò che il modello ha davvero calcolato. Cosa significa per chi deve prendere decisioni cliniche — e cosa chiede ora la normativa europea?
Era una notte di guardia come tante. Un uomo di 62 anni, iperteso e sovrappeso, arrivava con dispnea ingravescente comparsa nelle ultime tre ore, febbre a 38.2, tosse produttiva. La radiografia del torace mostrava un’opacità al lobo inferiore destro. Il sistema di supporto decisionale adottato dal reparto restituiva, in sei secondi, una lista ordinata: polmonite batterica, 74%; embolia polmonare con infarto, 14%; scompenso cardiaco acuto, 8%. Fin qui, niente di insolito. Ma sotto i numeri c’era una spiegazione articolata: “l’ipotesi di polmonite è supportata dalla presenza di febbre, dall’opacità lobare destra e dal pattern di esordio. L’embolia è meno probabile in assenza di fattori di rischio tromboembolici recenti documentati.” Il medico aveva già la penna in mano per prescrivere l’antibiotico. Quello che la spiegazione non diceva — e che il sistema probabilmente non aveva considerato con il peso adeguato — era che il paziente aveva fatto un volo transcontinentale quattro giorni prima. L’informazione era nella cartella, ma era stata inserita in un campo di testo libero, fuori dal perimetro strutturato su cui il modello era addestrato. L’embolia c’era. La spiegazione era coerente. Il ragionamento era sbagliato. Questo caso — ricostruito a scopo illustrativo ma fedele a dinamiche reali documentate in letteratura — mette a fuoco un problema che riguarda ogni clinico che usa o userà strumenti di AI: la spiegazione che un sistema produce può essere convincente senza essere causalmente accurata. Può sembrare una finestra sul ragionamento del modello quando è, invece, uno specchio su ciò che il clinico si aspetta di leggere.
(Continua)
Fausto Bodini
|
 |
 |
Letto : 4 | Torna indietro | | |
|
 |
 |
 |
 |
|
|
|
© Pillole.org 2004-2026 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
ore 06:42 | 116080876 accessi| utenti in linea:
6358
|
| |