|
|
|
|
|
|
|
|
|
La risposta delle riviste alla proposta di non pubblicare i trials |
|
|
Inserito il 25 maggio 2005 da admin. - professione - segnala a:
Il comitato internazionale degli editori medici ribadisce la politica di pubblicare in futuro solo clinical trials registrati in un pubblico registro ed accessibili liberamente e gratuitamente.
Sembra che l'editoriale pubblicato su PLOS Medicine di R. Smith, past editor del BMJ, in cui si chiedeva la cessazione della pubblicazione dei trials sponsorizzati sulle principali riviste per evidenti conflitti di interesse sia stato preso molto sul serio dagli editori di giornali medici. Con un'uscita in contemporanea tramite una early release sulle principali riviste mediche il comitato internazionale degli editori medici (ICMJE) ha riproposto la sua decisione di non pubblicare più trials clinici non iscritti preventivamente in un pubblico registro. Inoltre è stato ritenuto valido il minimun data set stabilito in una recente riunione dell'OMS che consta di 20 parametri. Enfasi è stata rivolta alla necessità di evitare immissioni incomplete o fornendo informazioni generiche che in realtà non consentono di individuare con chiarezza le finalità e le caratteristiche del trial. Fonte: JAMA. 2005;293:(DOI 10.1001/jama.293.23.jed50037).
Commento di Luca Puccetti La soluzione prospettata dal comitato internazionale degli editori medici è un tentativo di migliorare la situazione, ma è largamente insufficiente. La proposta degli editori non risolve il problema principale ossia la non pubblicazione di risultati negativi o dubbi o inconcludenti. Sarà sempre possibile, infatti, non pubblicare i dati di un trial negativo. Anche se i risultati saranno accessibili a tutti chi si assumerà l'onere di diffonderli? Una proposta più incisiva che abbiamo formulato prevede che lo sponsor, gli Autori dello studio e gli estensori del report clinico firmino con ICMJE od altro soggetto garante un contratto reso pubblico in cui tutti si impegnano, ognuno per la propria parte, a pubblicare i risultati dello studio registrato, qualunque essi siano. I costi delle pubblicazioni negative dovrebbero essere equamente ripartiti tra enti pubblici, lo stesso ICMJE (rischio d’impresa per finalità pubbliche) e sponsor. A carico degli Autori non dovrebbe andare nessuna penalizzazione, né in termine di ritorno scientifico, né in termini economici, se lo studio desse risultati negativi. I membri del ICMJE dovrebbero inoltre impegnarsi a dare ad un trial con risultato negativo lo stesso risalto che sarebbe stato accordato qualora lo studio avesse prodotto risultati positivi. Solo in questo modo saremo certi che risultati negativi saranno divulgati con la stessa enfasi di ogni altro lavoro. Se il fine è la valorizzazione e la diffusione della conoscenza, gli editori dovrebbero rinunciare alla politica di far pagare per consultare le riviste, almeno nella forma elettronica, magari con un ritardo, purchè minimo, rispetto alla edizione cartacea a pagamento.
Commento di Renato Rossi Le dichiarazioni degli editori delle maggiori riviste mediche sono un primo passo, ma non bastano. E non si tratta solo dell'obbligo della pubblicazione dei risultati di tutti i trials iscritti nel registro, anche quelli negativi. Questo è un aspetto non marginale che può mettere un riparo al publication bias, ma vi sono altre strategie, più sottili, per far apparire positivi e importanti i risultati di uno studio. Strategie metodologicamente corrette e che non è facile individuare per i non esperti. Mi limiterò a due soli esempi, tanto per chiarire le cose a chi non è addentro ai misteri della ricerca. Poniamo il caso che io abbia un nuovo antipertensivo e voglia dimostrare che è più utile di un antipertensivo tradizionale nella nefroprotezione del diabetico. Arruolo una serie di diabetici ipertesi con albuminuria, scelgo come end-point da valutare, dopo 5 anni, di quanto si è ridotta l'albuminuria e prendo come farmaco con cui confrontarmi un antipertensivo che so non essere specificamente indicato a ridurre l'albuminuria. Alla fine dello studio troverò che il mio farmaco riduce l'albuminuria del 50% rispetto ai valori basali mentre il concorrente la riduce solo del 10%. Quindi concluderò che il mio prodotto ha un' azione di protezione sul rene maggiore del farmaco concorrente. Se però vado a vedere quanti pazienti sono finiti in dialisi (che sarebbe stato l'end-point che mi interessa di più) trovo che non c'è differenza tra i due farmaci. In questo esempio ho usato due strategie combinate: ho scelto un end-point surrogato invece di un end-point clinico e un farmaco di confronto che già in partenza era, su questo specifico esito, sfavorito. Facciamo un altro esempio. Ho un nuovo farmaco per il colesterolo e lo confronto con uno più datato per vedere chi dei due riduce di più gli infarti. Alla fine dello studio trovo che i due farmaci funzionano in maniera eguale. Allora decido di pubblicare lo studio in una rivista a minor "impact factor" (cioè una rivista che viene citata meno perchè pubblica in genere lavori meno importanti). Poi mi metto dietro un calcolatore e faccio una serie di controlli incrociati sui dati dello studio suddividendo i pazienti per vari parametri (età, sesso, statura, etnia, fumo, colore degli occhi, divorziati o sposati, cardiopatici e non, diabetici e non, ecc.). In altre parole faccio quella che si chiama analisi a posteriori. C'è una certa probabilità statistica che tra i tanti incroci fatti io possa trovare che il mio farmaco risulta apparentenete superiore al farmaco di paragone in una certa sottopopolazione (per esempio sembra funzionare di più nei divorziati e in chi ha gli occhi azzurri). A questo punto prendo questa analisi e la mando per la pubblicazione ad una rivista a maggior impact factor perchè voglio far passare il concetto che il mio farmaco è specifico per i divorziati e per chi ha gli occhi azzurri. Non c'è però nessuna plausibilità clinica perchè questo succeda e il risultato trovato è solo una bizzarria statistica dovuta al caso, ma intanto il messaggio passa. Questi sono solo degli esempi molto semplici che però ci dicono che nella valutazione di uno studio ci sono molteplici punti da valutare ed è impensabile che un medico oberato di lavoro possa fare tutto da solo. Ecco allora che le dichiarazioni di intenti degli editori delle maggiori viste mediche appaiono come un pannicello imbevuto d'acqua, del tutto insufficiente per curare un malato febbricitante. Occorerebbe una presa di posizione ben più forte: per esempio gli editor dovrebbero impegnarsi a far accompagnare ogni studio pubblicato da una breve analisi metodologica e di plausibilità clinica affidata ad esperti del campo indipendenti che ci dicesse se lo studio è valido ed ha una importanza clinica oppure se è un trials che possiamo decisamente cestinare perchè inadatto a modificare la nostra pratica giornaliera. Oltre a questo gli editor dovrebbero impegnarsi a rendere liberamente e gratuitamente fruibile il commento a tutti (perlomeno nella sua versione online).
|
|
|
Letto : 1578 | Torna indietro | | |
|
|
|
|
|
|
|
|
© Pillole.org 2004-2024 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
ore 04:08 | 104950586 accessi| utenti in linea:
1897
|
|