|
|
|
 |
L’Errore Cognitivo in Medicina:come ridurlo |
 |
 |
Inserito il 01 giugno 2025 da admin. - casi_clinici - segnala a:
Strategie e metodi per prevenire i bias in ambito medico
Nella pillola precedente abbiamo descritto gli studi filosofici,logici psicologici che hanno portato alla conclusione che gli errori in tutti gli ambiti della umana attività, ma in particolare in medicina, sono "effetti collaterali" delle nostre procedure decisionali che possono essere sensibilmente ridotti ma mai del tutto eliminati. In questa pillola riassumiamo i più frequenti: un manuale divulgativo, best seller da 1 milione di copie, "The Art of Thinking Clearly" ne elencava nel 2013 un centinaio di tipi, tuttavia sintetizzabili in otto bias fondamentali,particolarmente frequenti, che sarebbe opportuno ricordare;li riprendiamo in questa Tabella....
Principali bias in ambito clinico
Ancoraggio ovvero Fissarsi su una diagnosi iniziale: può portare ad una diagnosi prematura e quindi errata
Disponibilità ovvero Basarsi su esempi recenti/salienti: può portare ad una Sovra o Sottodiagnosi
Auto-conferma ovvero Cercare solo conferme alla ipotesi: elimina di fatto le ipotesi alternative aumentando la probabilità di errore
Overconfidence ovvero Eccessiva fiducia sè stessi: favorisce la Auto-conferma con Rifiuto ipotesi alternative
Framing ovvero Giudizio influenzato dal contesto: porta ad Errori particolarmente pericolosi nel triage
Sunk Cost ovvero Perseverare in una diagnosi perchè è troppo faticoso od oneroso valutare una alternativa: oltre ad errare la diagnosi si applicano trattamenti inutili... Visceral Bias ovvero le Emozioni verso il paziente ( esempio affetto verso parenti ma anche nostre antipatie e pregiudizi) ci fanno escludere le ipotesi peggiori o comunque distorcono il giudizio
Blind-spot bias ovvero Pensare di essere meno soggetti ai bias perchè più bravi dei colleghi: ciò porta a rigidità,scarsa autocritica e quindi difficoltà nell'individuare l'errore e/o rifiuto di correggerlo
La mitigazione dei bias cognitivi in medicina richiede interventi basati su due livelli: individuale (il singolo clinico che adotta tecniche di debiasing e miglioramento del ragionamento) e sistemico/organizzativo (procedure, strumenti e cultura istituzionale che riducono le condizioni in cui i bias prosperano). Di seguito esaminiamo le principali strategie.
Formazione e consapevolezza: Il primo antidoto è educativo. Inserire nei curricula di medicina e nei programmi di formazione continua moduli specifici sui bias cognitivi aumenta la consapevolezza del problema. Attraverso casi di studio, simulazioni e riflessioni guidate, i medici possono imparare a riconoscere scenari tipici di bias (ad esempio un esercizio può presentare un caso clinico con pochi dati e chiedere ai partecipanti la diagnosi: molti cadranno nell’ancoraggio o nella disponibilità, e solo discutendone si renderanno conto dell’errore). La teoria del dual process (Sistema 1 vs Sistema 2) dovrebbe essere insegnata chiaramente, sottolineando che il pensiero intuitivo è utile ma deve essere affiancato dal pensiero analitico quando la posta in gioco è alta. Corsi di ragionamento clinico possono fornire tecniche pratiche: insegnare a costruire sempre almeno 2-3 diagnosi differenziali in ordine di probabilità aiuta a non fissarsi su una singola ipotesi.
Fondamentale è creare nei medici l’atteggiamento di dubbio costruttivo: il clinico deve passare da uno stato “mindless” dove segue le routine senza riflettere, a uno stato “mindful” in cui monitora il proprio pensiero. Questo può essere coltivato con la pratica deliberata della metacognizione: esercizi di pensare al proprio pensiero dopo casi clinici (“dove avrei potuto prendere una cantonata? quale bias era in agguato?”). La formazione dovrebbe includere anche il tema delle emozioni e stress: un medico stanco, sovraccarico o emotivamente coinvolto è più suscettibile ai bias, quindi parte della prevenzione è riconoscere i propri limiti (ad es. fare pause se affaticati, consultare i colleghi se ci si sente insicuri o irritati con un paziente, ecc.). Strumenti cognitivi checklist e algoritmi: Sul fronte sistemico, l’introduzione di checklist diagnostiche è considerata una delle armi più promettenti contro i bias. Così come le checklist chirurgiche hanno ridotto gli errori in sala operatoria, le diagnostic checklists mirano a guidare il ragionamento clinico in modo da non saltare passaggi cruciali. Ad esempio, una checklist generale potrebbe includere voci come: “Ho verificato i dati chiave dell’anamnesi? Ho considerato diagnosi alternative gravi? Questo quadro potrebbe essere spiegato da più di una patologia concomitante? Ci sono risultati che non si spiegano con la mia diagnosi principale? Ho considerato errori di laboratorio o di esecuzione degli esami?”. Altre checklist sono specifiche per sintomo o malattia: ad esempio per il “dolore toracico” una lista ricorda di valutare sempre e comunque la presenza di segnali di infarto, dissecazione, embolia polmonare, per quanto la presentazione possa sembrare benigna. Queste liste funzionano da rete di sicurezza cognitiva: obbligano a passare in rassegna ipotesi e controlli che l’intuizione aveva magari saltato. Studi iniziali mostrano che fornire ai medici una checklist differenziale può migliorare l’accuratezza diagnostica rispetto al solo affidarsi alla memoria. Va detto che le checklist devono essere concise e ben costruite per essere efficaci: se troppo lunghe o complesse rischiano di venire ignorate. In emergenza, alcune realtà hanno introdotto la “diagnostic pause” elettronica: il sistema clinico informatizzato, all’atto di concludere un caso, chiede al medico se ha considerato alternative e se vuole attivare un secondo parere. Secondi pareri e lavoro di squadra: A livello organizzativo, incoraggiare la consultazione orizzontale tra colleghi e multidisciplinare è essenziale. Nessuno è immune dai bias del proprio cervello, ma discutere collegialmente un caso significa mettere a confronto più cervelli, riducendo la probabilità che tutti cadano nello stesso errore. Ad esempio, presentare in staff meeting i casi complessi prima della dimissione fornisce opportunità di sollevare dubbi: un radiologo potrebbe notare qualcosa che al clinico era sfuggito per bias di conferma, o un internista potrebbe suggerire una diagnosi rara che il pronto-soccorsista non aveva considerato per bias di disponibilità. L’implementazione di turni adeguati e prevenzione della fatica (dunque a livello sistemico: evitare orari impossibili, fornire pause) è un altro fattore: un sistema che spinge i clinici all’esaurimento li rende facile preda di bias dovuti a stanchezza decisionale.
Supporti decisionali digitali e intelligenza artificiale: Negli ultimi anni stanno emergendo strumenti tecnologici per assistere il medico nel ragionamento ed evitare bias. Ad esempio, sistemi di CDSS (Clinical Decision Support Systems) possono fornire promemoria automatici su diagnosi da non dimenticare data una certa presentazione (ad es. “il paziente ha iponatriemia e confusione, ha considerato la SIADH?”). Questi sistemi, se ben integrati nel flusso di lavoro, possono fungere da checklist dinamiche. L’intelligenza artificiale offre prospettive interessanti: algoritmi di machine learning addestrati su grandi moli di dati possono proporre diagnosi alternative o indicare quando un caso devia dai pattern tipici (se un algoritmo nota che la combinazione di sintomi X non corrisponde alla diagnosi che il medico sta pensando, potrebbe segnalare “attenzione, di solito questi sintomi indicano altro”).
Vanno tuttavia segnalati anchi i Limiti: va detto infatti che anche i sistemi di AI possono introdurre propri bias (dipendenti dai dati di training), e soprattutto c’è il rischio che il medico si “adagî” sul supporto e perda la vigilanza cognitiva. Quindi l’uso dell’AI dovrebbe essere visto come secondo parere costante, non come oracolo infallibile. Protocollo e cultura della sicurezza: A livello di sistema sanitario, una strategia di prevenzione bias consiste nell’adottare protocolli e linee guida che standardizzano la gestione dei casi più comuni, lasciando meno spazio al decision making arbitrario. Ad esempio, per il dolore toracico esistono protocolli che prevedono step fissi (ECG entro 10 minuti, dosaggio troponina, algoritmo GRACE, etc.): seguendoli, si evita che un paziente a rischio infarto venga dimesso per bias di minimizzazione. Similmente, score clinici e strumenti oggettivi (NEWS score, Wells score per embolia, Ottawa rules per traumi) dovrebbero essere applicati rigorosamente: essi forzano il clinico a considerare parametri misurati e soglie, controbilanciando l’intuizione. Una cultura istituzionale che favorisca la sicurezza del paziente implica anche analisi degli errori senza colpevolizzazione: quando capita un errore diagnostico grave, se ne dovrebbe poter discutere apertamente in riunioni di gruppo dove l’attenzione è sui fattori cognitivi e sistemici che l’hanno permesso, piuttosto che sulla “colpa” del singolo. Questo incoraggia i medici a riconoscere i bias e a condividerne le lezioni apprese. Debiasing attivo: In ambito psicologico si studiano anche tecniche di debiasing cognitivo attivo, come ad esempio l’allenamento metacognitivo (sviluppato inizialmente per pazienti psichiatrici): consiste in esercizi che insegnano a individuare errori di ragionamento e a correggerli. Alcuni hanno proposto di adattare tali training ai clinici, facendoli esercitare ripetutamente nel riconoscere i loro bias attraverso simulazioni o videogiochi seri. Un’altra tecnica è la riduzione dell’euristica tramite aumento dell’analisi: ovvero spingere deliberatamente il medico in certe situazioni ad adottare il pensiero lento (System 2) al posto del rapido (System 1). Questo si può ottenere, per esempio, con “interruttori cognitivi” – momenti forzati di riflessione come già detto – o con la segmentazione del processo: invece di fare tutto mentalmente in testa, scomporre per iscritto i dati del caso, scrivere pro e contro di ciascuna ipotesi, etc. Scrivere aiuta a passare da intuizioni fugaci a analisi tangibili.
In conclusione, nessuna singola strategia elimina completamente i bias (che, come abbiamo sottolineato, sono parte integrante del funzionamento mentale umano). L’obiettivo realistico è creare un sistema a più livelli di difesa, dove la consapevolezza individuale, gli strumenti cognitivi (checklist, algoritmi), la collaborazione in team e il supporto tecnologico e organizzativo concorrano a gestire i bias prima che causino danni. Un clinico ben formato riconoscerà i propri “punti ciechi” più facilmente; un ambiente di lavoro ben progettato ridurrà le situazioni di decisione sotto stress estremo o in solitudine; una buona prassi multidisciplinare farà sì che gli errori di uno vengano compensati dal contributo di un altro.
Come spesso si cita in ambito safety, i bias cognitivi sono inevitabili come il maltempo, ma con le giuste precauzioni (mappe, ombrello, barometro) si può evitare di naufragare sotto il loro influsso. In medicina, ciò significa diagnosi più accurate e cure più sicure per i pazienti – il fine ultimo per cui vale la pena combattere la fallibilità intrinseca della mente umana.
Riccardo De Gobbi e Giampaolo Collecchia
Per approfondimenti metodologici consigliamo due volumi:
A) Rossi R.L. Collecchia G. De Gobbi R et Al.: L’errore Medico Pensiero Scientifico Edit Roma aprile 2025 http://pensiero.it/catalogo/libri/l-errore-medico
B) Collecchia G. Rossi R.L. De Gobbi R et Al.: La diagnosi ritrovata Pensiero Scientifico Edit Roma 2021 http://pensiero.it/catalogo/libri/la-diagnosi-ritrovata
|
 |
 |
Letto : 3378 | Torna indietro | | |
|
 |
 |
 |
 |
|
|
|