Per una politica italiana di studi osservazionali di esito
Epidemiologia eziologica e valutativa: due mondi divergenti?
Quali le ragioni della distinzione, inopinatamente scontata, tra epidemiologia eziologica e valutativa, con sviluppi sempre più indipendenti di metodi e disegni di studio tra queste aree di applicazione dell’epidemiologia?
In campo eziologico evolvono metodi e disegni di studiomolto eterogenei, spesso assai sofisticati, per testare nel modo più efficiente e valido ipotesi di associazione tra esposizioni, ipotetici determinanti, e danni alla salute. A questo vivace processo di ideazione si accompagnano sviluppi altrettanto interessanti di metodi statistici, sempre più potenti anche per la crescita degli strumenti di elaborazione dati. In campo valutativo si sono soprattutto sviluppati metodi di disegno e analisi di studi randomizzati controllati (RCT), e della loro metanalisi, ma è relativamente meno vivace lo sviluppo di altri disegni di studio. Duemondi, valutativo ed eziologico, progressivamente divergono, il “dominio” degli studi randomizzati sempre più separato da quello generale dell’epidemiologia, a sua volta più identificata nella ricerca delle “cause” di danni alla salute.
Forse una ragione di questi diversi percorsi sta nelle caratteristiche delle esposizioni in studio. In campo valutativo l’epistemologia dominante è quella della valutazione di efficacia di trattamenti sanitari, soprattutto farmaci. La grande forza innovativa delle idee rigorose di uomini come Archie Cochrane, l’apparente dilagare (quanto rituale?) della cosiddetta medicina basata sulle prove di efficacia (oddio, la giaculatoria dell’EBM!), il tentativo in generale di settori più colti (e meno condizionati da conflitti di interesse) dei sistemi sanitari, hanno affermato il paradigma degli RCT, considerati il gold standard della valutazione di efficacia. Certo da lì si doveva partire, ma ancor oggi nella Cochrane Collaboration prevale un’impostazione che tende a limitare le revisioni sistematiche ai soli RCT, pur con qualche recente apertura più coraggiosa, specie in sanità pubblica. Comunque i criteri di valutazione di linee guida, della qualità delle conoscenze scientifiche disponibili sull’efficacia dei trattamenti assegnano il livello più alto alle prove da RCT, (meglio ancora se da revisioni sistematiche di molti RCT di grandi dimensioni e di buona qualità!).
Alla base di questa epistemologia il presupposto che le esposizioni a un trattamento sanitario siano manipolabili sperimentalmente. Di conseguenza in campo valutativo gli studi randomizzati controllati sono considerati il disegno di studio d’elezione. Il paradigma RCT è addirittura considerato gold standard di riferimento per discutere caratteristiche, limitazioni, distorsioni potenziali di studi osservazionali anche in campo eziologico: un disegno di studio viene considerato tanto più valido quanto meno si discosta dall’ideale di un RCT.
Le esposizioni eziologiche sono raramente manipolabili, quasi mai è possibile, non fosse altro per ragioni etiche, assegnare casualmente individui e/o popolazioni a un fattore di rischio, tantomeno è possibile mantenere cecità degli esposti e degli osservatori. Quindi RCT per ipotesi valutative, altri disegni, tendenzialmente meno validi, per ipotesi eziologiche.
Occorrono aperture coraggiose…
Eppure il ragionamento critico sugli studi osservazionali eziologici può aiutare molto interpretazione e lettura critica anche degli studi randomizzati valutativi. La necessaria restrizione nel tempo, nello spazio, per età, per genere delle popolazioni allo studio, i criteri di esclusione, la natura “ideale” dei contesti clinici ed organizzativi sperimentali, le caratteristiche stesse dei sistemi di osservazione negli RCT, infine le conseguenze dei processi di consenso informato, rendono le popolazioni degli RCT sempre “speciali”, limitandone la generalizzazione dei risultati. Paradossalmente un pregio degli RCT è la definizione esplicita a priori delle potenziali modificazioni delle misure di effetto. Uno dei fattori di modificazione delle misure di effetto è la inevitabile limitazione temporale dello studio. Si pensi alle differenze temporali tra RCT per valutare l’efficacia di antibiotici o antivirali: la misura di effetto cambia in trial fatti in tempi (e popolazioni) diversi, quando, nel tempo, cambiano le popolazioni batteriche o virali bersaglio dei trattamenti, o quando addirittura è il trattamento in un dato intervallo temporale che determina nuove caratteristiche di suscettibilità/ resistenza al trattamento in un tempo successivo. Nella valutazione degli RCT il criterio di analisi intention to treat è considerato un valore positivo; ma questo metodo, che protegge gli effetti della randomizzazione da fattori di allocazione al trattamento non casuali, limitandone i potenziali effetti di confondimento, introduce dichiaratamente una misclassificazione dell’esposizione, che sarebbe considerata molto critica in studi osservazionali eziologici.
Per loro natura e complessità organizzative, gli RCT possono raramente valutare l’effetto di caratteristiche di trattamenti complessi, che includono importanti processi diagnostici, di lunga durata, che coinvolgono numerosi luoghi di cura per lungo tempo. Certamente non possono valutare l’effetto di caratteristiche difficilmente randomizzabili dei trattamenti, ad esempio i volumi di attività di un ospedale o molte procedure chirurgiche.
La tendenza propria degli RCT a valorizzare la validità interna, a scapito della generalizzabilità, le norme regolatorie e gli interessi, seppur legittimi, hanno portato gli RCT a privilegiare singoli trattamenti specifici, escludendo la valutazione di trattamenti complessi, di processi di cura che sono i reali determinanti della salute della popolazione, ma che, proprio per la loro complessità, difficilmente si prestano ad essere valutati in rigorosi RCT. Le stesse revisioni sistematiche, ossessivamente concentrate sugli RCT, quindi sui loro “semplici” obiettivi e quesiti, hanno progressivamente perso di vista la loro missione originaria di dare risposte scientificamente valide ai decisori e alle persone, diventando sempre più strumenti di certificazione e divulgazione dei risultati degli (ottimi) trial promossi dall’industria o, talora, di valutazione di quesiti di ricerca.
…per valutare l’efficacia reale degli interventi
Anche per questo, oltre che per interessi professionali, produttivi e commerciali, moltissime nuove tecnologie sanitarie entrano nella pratica, non solo clinica, dei sistemi sanitari in assenza di solide prove scientifiche di efficacia, non solo da studi sperimentali randomizzati controllati. Il fenomeno riguarda in modo massiccio le tecnologie diagnostiche, i dispositivi biomedici, le protesi, quasi tutte le nuove tecniche chirurgiche, e, sempre più estesamente anche trattamenti farmacologici, per non parlare delle psicoterapie e delle cosiddette medicine non convenzionali. Nella prevenzione, ormai inopinatamente aggettivata (primaria, secondaria, terziaria, quaternaria...) ed estesa a una surrettizia riclassificazione di tutto l’ambito dei sistemi sanitari, si diffondono e si sviluppano offerte di servizi e programmi di intervento in assenza di qualunque valida prova di efficacia. Si pensi al campo assai ambiguo della cosiddetta medicina predittiva.
Anche gli ambiti di organizzazione dei sistemi sanitari, per i quali raramente si applicano i paradigmi degli RCT, vedono profonde trasformazioni organizzative in assenza di valide prove scientifiche di efficacia. Esempi:
- la discussione sulla riorganizzazione degli ospedali per intensità di cura anziché per specialità;
- la definizione (burotica) della cosiddetta inappropriatezza organizzativa (chi ha mai dimostrato che un intervento per catarrata in ambulatorio è più cost-effective dello stesso intervento in day hospital o in degenza ordinaria?).
Ma le prove di efficacia teorica non bastano
Anche per i trattamenti per i quali perfette revisioni sistematiche di numerosi grandi perfetti RCT omogenei hanno prodotto solide prove di efficacia (teorica, sperimentale) è assolutamente necessario valutarne continuamente e ripetutamente l’efficacia pratica, operativa in validi studi osservazionali, nel mondo reale, sotto diverse condizioni organizzative, ambientali, sociali. Ancoramolto valida la distinzione lessicale tra efficacy, efficacia teorica, sperimentale, potenziale, ideale, ed effectiveness, efficacia empirica, attuale, osservazionali, operativa; non si tratta certo di una dicotomia, ma di un continuum popolato da diversi disegni di studio, con diversi trade-off tra validità interna e generalizzabilità. Possibile applicazione di studi osservazionali di esito è la valutazione comparativa dei servizi sanitari – in Italia per ora soprattutto degli ospedali – tra i quali non è certo possibile ipotizzare la randomizzazione dei pazienti. Un tema controverso, che ha l’obiettivo esplicito di promuovere elementi di competizione virtuosa per la salute tra i produttori di servizi sanitari: forse troppo per un paese che detesta la competizione come la peste, non ne vuole sentir parlare in nessun campo, da destra e da sinistra. Varrebbe la pena considerare che gran parte delle disuguaglianze di salute determinate dal sistema sanitario, soprattutto quelle legate alla “vulnerabilità alla inappropriatezza” che caratterizza le popolazioni di basso livello socioeconomico, verrebbero ridotte se la valutazione della efficacia dei trattamenti sanitari, dei servizi e delle istituzioni che li erogano, diventasse un elemento fondante delle decisioni nel sistema sanitario.
Gli RCT di buona qualità ci proteggono (abbastanza e comunque solo “prima” della effettiva randomizzazione) dagli effetti del confondimento, e, attraverso diversi livelli di “cecità”, dalla misclassificazione (direzionale) dell’esito.
Gli studi osservazionali ci costringono a misurarci con tutte le possibili distorsioni, non solo il confondimento, che sono proprie degli studi epidemiologici; ma in questo campo valutativo, così come in quello eziologico, l’epidemiologia consiste proprio nella scelta dei disegni di studio, di metodi di misura e di analisi, che, limitando queste distorsioni, consentono di discutere risultati rendendone espliciti i limiti di validità.
Il futuro passa dallo sviluppo della comparative effectiveness
Quindi è necessario promuovere e sostenere studi randomizzati controllati di buona qualità, quando e dove sono applicabili, e sviluppare fortemente, come sta avvenendo negli USA con la cosiddetta comparative effectiveness, una politica di studi osservazionali di esito, sui cui risultati valutare la possibile estensione di processi regolatori anche per tecnologie sanitarie oggi poco regolate.
Con un’importante premessa: qualunque studio epidemiologico può valutare esclusivamente le ipotesi, valutative o eziologiche che siano, per le quali è stato proposto, ideato e disegnato. Necessario quindi mantenere salda alla base degli studi una logica ipotetico-deduttiva. Grandi ed efficienti sistemi informativi, anche di buona qualità, disponibilità di dati sempre più ampia, la grande opportunità di sistemi di calcolo evoluti, potenti e rapidi, metodi statistici sempre più sofisticati, tutti questi fattori portano con se il rischio di un approccio, talora inconsapevolmente, induttivo: accumulare osservazioni, analizzarle senza ipotesi a priori, discutere i risultati e formulare teorie esplicative delle osservazioni e dei risultati ottenuti, immergendo il setaccio di uno studio nel calderone onnipotente dei dati.
Solamente il rigore e l’umiltà di un metodo ipotetico deduttivo, solidamente sviluppato su ipotesi, eziologiche o valutative, basate sulla revisione delle conoscenze scientifiche disponibili, consentono all’epidemiologia di aggiungere piccoli contributi di prova e di aumentare la consapevolezza di quanto non conosciamo, per stimolare la curiosità e la fantasia di nuovi studi e fornire ai decisori il nostro piccolo contributo di conoscenza e le nostre esplicite dichiarazioni di incertezza, per supportare decisioni che, comunque, debbono essere prese.
Conflitti di interesse dichiarati: nessuno