Dieci anni fa ci lasciava Alessandro Liberati, il pioniere della medicina basata sulle prove in Italia.1 
Cittadino del mondo, ha avuto il merito di portare in Italia le idee più innovative sulla ricerca clinica. Si è impegnato per diffondere anche nel nostro Paese la cultura di una valutazione critica della ricerca clinica seguendo le orme del lavoro di David Sackett.2 Ha fondato nel 1994 il Centro Cochrane Italiano presso l’Istituto Mario Negri ed è stato tra i fondatori del gruppo di lavoro GRADE3 (Grades of Recommendation, Assessment, Development and Evaluation) per la produzione di raccomandazioni cliniche.
Alessandro Liberati ha speso gli ultimi anni della sua vita impegnandosi per una ricerca sanitaria pubblica che rispondesse alle esigenze conoscitive dei pazienti piuttosto che ai “desiderata” dei ricercatori o alle logiche accademiche e del mercato. In più occasioni, ha messo in evidenza le debolezze della ricerca sanitaria in Italia, tra cui la frammentazione delle fonti di finanziamento, la mancanza di una governance della ricerca e la mancanza di un sistema esplicito di definizione delle priorità della ricerca. Quando si è trovato a rivestire non più solo il ruolo di ricercatore e di persona impegnata nell’allocazione di fondi per la ricerca sanitaria, ma anche quello di paziente, ha espresso molto chiaramente le sue idee in due contributi pubblicati rispettivamente sul BMJ4 e su Lancet.5 Nella sua triplice veste, ha denunciato la non corrispondenza che esiste tra la ricerca utile per gli ammalati e la ricerca disponibile. 
Da membro fondatore della Cochrane Collaboration, ha contribuito a sottolineare tutti i limiti dei trial controllati randomizzati e importante è stato il suo contributo al metodo GRADE nel superare la logica della valutazione della qualità del singolo studio a favore di una valutazione complessiva della qualità delle prove. 
Non era una persona dogmatica e non ha mai condiviso l’impostazione talvolta dogmatica della Cochrane stessa. Non amava neanche le gerarchie; che proprio alle evidenze si applicasse il termine gerarchia non gli è mai piaciuto.
Alla fine del 2009, partecipò al seminario sui trent’anni dell’osservatorio epidemiologico della Regione Lazio, con una lettura nella quale ha affrontato, tra gli altri temi, i seguenti, su cui vorrei soffermarmi in questo contributo.

  1. i quesiti e il loro disegno di studio “preferito”;
  2. la rivisitazione del concetto di evidence hierarchy.

Sul primo argomento, gli è bastata una slide in cui riprendeva quanto avevamo letto già molti anni prima in un editoriale di David Sackett e John Wennberg Choosing the best research design for each question,5 nel quale gli autori sottolineavano che «Tanta energia intellettuale ed emotiva, inchiostro, carta e il tempo prezioso dei lettori sono stati spesi confrontando, contrastando, attaccando e difendendo gli studi randomizzati controllati. Questa è stata principalmente una perdita di tempo e sforzo e la maggior parte dei contendenti, concentrandosi sui metodi piuttosto che sulle domande di ricerca, hanno discusso delle cose sbagliate». Il tema, ci ha raccontato Alessandro in quell’occasione, è quale sia il modo e quali i disegni di studio che permettono di rispondere alla domanda di ricerca nel modo più valido e utile. L’invito che ci rivolse in quell’occasione fu di utilizzare il disegno di studio più adatto a rispondere alla domanda di ricerca, disegnarlo e condurlo in modo tale da minimizzare tutti i possibili bias. Il fatto che un disegno si chiami “studio osservazionale di coorte” o “studio randomizzato controllato” non è importante, quello che conta è che i diversi disegni siano quelli più adeguati per rispondere alla domanda in studio. Infatti, se nel caso di studi di tipo eziologico non è proprio possibile condurre studi randomizzati controllati, anche in campo clinico abbiamo spesso bisogno di entrambe le tipologie di studio per rispondere a quesiti quali l’efficacia e la sicurezza di interventi sanitari in popolazioni che non sono state oggetto di RCT o su esiti rari e a lungo termine.
Il giorno prima di fare la presentazione al seminario dell’Osservatorio epidemiologico della Regione Lazio, nel dicembre del 2009, Alessandro era stato a Oxford per un incontro internazionale proprio sul tema della gerarchia delle evidenze. La prima proposta di rivisitazione della gerarchia delle evidenze fu di non collocare le revisioni sistematiche in cima alla piramide a rappresentare il livello più alto di evidenza. È chiaro che, essendo le revisioni sistematiche una sintesi di studi primari, non possono in nessun modo essere considerate uno studio a se stante al “top” della piramide. La qualità delle prove contenute in una revisione sistematica nello stabilire un nesso causale tra esposizione (sia essa un agente inquinante o un trattamento) ed esito dipende dalla qualità degli studi inclusi nella revisione stessa. 
La seconda proposta era di rovesciare l’ordine dei fattori: dalla domanda al tipo di evidenza e non viceversa. Torniamo, quindi, a quale sia il disegno di studio più adatto a rispondere a un quesito specifico. 
L’ultima proposta era quella più radicale: abolire il termine o concetto di gerarchia dell’evidenza.
E proprio di questo parlava l’articolo che Howick e Glasziou avevano appena pubblicato.7 Alessandro ci mostrò la metafora proposta da Glasziou: una mongolfiera sostenuta da tre palloni areostatici, uno che riguarda l’evidenza diretta, vale a dire la stima dell’effetto ottenuta da uno studio, indipendentemente dal disegno; un altro pallone che rappresenta l’evidenza parallela, quella che oggi chiameremmo coerenza (o consistency in inglese), vale a dire la presenza di più studi che mostrano risultati simili; infine il terzo pallone l’evidenza meccanicistica, vale a dire la presenza di evidenze che spiegano il meccanismo che lega l’esposizione all’esito, tra cui la plausibilità biologica o la coerenza con quanto già noto.8
Molta strada è stata fatta da allora riguardo a quali possano essere le modalità per tenere in adeguata considerazione le prove che derivano da studi non randomizzati. Il gruppo di lavoro GRADE ha sviluppato una metodologia di valutazione della qualità degli studi non randomizzati9 ed è in procinto di pubblicare un lavoro sulle strategie per ottimizzare l’uso degli studi randomizzati e non randomizzati nella sintesi delle evidenze. Si è costituito un gruppo specifico GRADE molto attivo che ha pubblicato una serie di linee guida per la salute ambientale e occupazionale.10 Le controversie e il dibattito nella comunità scientifica sono ancora molto attuali e vivaci. A mio parere, vale ancora quanto scritto nella vecchia lettera di David Sackett:6 «I ricercatori farebbero un miglior servizio per la salute e per l’assistenza sanitaria se reindirizzassero l’energia che attualmente spendono contestando i diversi disegni di studio per aumentare la validità, la potenza e la produttività degli studi che fanno».

Bibliografia

  1. Liberati A. La medicina delle prove di efficacia. Potenzialità e limiti della evidence-based medicine. Roma, Il Pensiero Scientifico Editore, 1997.
  2. Sackett DL, Rosenberg, WM, Gray JA, Haynes RB, Richardson WS. Evidence based medicine: what it is and what it isn’t. BMJ 1996;312(7023):71-72.
  3. Atkins D, Eccles M, Flottorp S et al. Systems for grading the quality of evidence and the strength of recommendations I: critical appraisal of existing approaches The GRADE Working Group. BMC Health Serv Res 2004;4(1):38.
  4. Liberati A. An unfinished trip through uncertainties. BMJ 2004;328(7438):531.
  5. Liberati A. Need to realign patient-oriented and commercial and academic research. Lancet 2011;378(9805):1777-78.
  6. Sackett DL, Wennberg JE. Chosing the best research design for each question. BMJ 1997;315(7123):1636.
  7. Howick J, Glasziou P, Aronson JK. The evolution of evidence hierarchies: what can Bradford Hill’s ‘guidelines for causation’ contribute? J R Soc Med 2009;102(5):186-94.
  8. Lawlor DA, Tilling K, Davey Smith G. Triangulation in aetiological epidemiology. Int J Epidemiol 2016;45(6):1866-86.
  9. Schünemann HJ, Carlos Cuello C, Elie A et al. GRADE guidelines: 18. How ROBINS-I and other tools to assess risk of bias in nonrandomized studies should be used to rate the certainty of a body of evidence. JCE 2019;11:105-14.
  10. Morgan RL, Thayer KA, Bero L et al. GRADE: Assessing the quality of evidence in environmental and occupational health. Environ Int 2016;92-93:611-16.
          Visite