Rubriche
22/12/2010

Costruire su quarant’anni di esperienza

Di comunicazione del rischio si comincia a parlare all’incirca quaranta anni fa, in concomitanza con lo sviluppo e l’applicazione di tecnologie innovative, spesso originariamente sviluppate a fini bellici e successivamente destinate a trovare larga applicazione in ambito civile. Il caso emblematico è la tecnologia nucleare. L’obiettivo della comunicazione è duplice: il primo, dichiarato ed esplicito, è quello di informare il pubblico sulle valutazioni scientifiche effettuate dagli esperti; il secondo, implicito anche se non necessariamente mascherato, è di convincere la gente ad accettare le scelte compiute dal potere politico sulla base (si sostiene) di tali valutazioni. È tenendo ben in mente questo secondo obiettivo che, a mio avviso, si devono analizzare le diverse iniziative di comunicazione, in modo da comprenderne a fondo dinamiche e esiti. Tali iniziative appaiono come necessarie nel momento in cui gruppi di cittadini cominciano a manifestare perplessità, timori o addirittura opposizione a certe scelte operate in campo industriale ed energetico. Precedentemente, si pensava e si agiva come se i cittadini fossero e dovessero rimanere estranei a tali scelte, ritenute affare esclusivo dei detentori del potere politico, legittimati da pareri esperti. «Science speaks truth to power» («La scienza rivela la verità al potere») si dice: e sulla scienza, sul potere e sui loro rapporti non si ritiene ci si debba porre troppi interrogativi. Baruch Fischhoff, in un articolo del 1995 divenuto un classico, ha efficacemente ripercorso le varie fasi della comunicazione (e percezione) del rischio, insistendo che esse non appaiono necessariamente in una sequenza logica o temporale: al contrario possono sovrapporsi, coesistere, alternarsi e ripetersi in vari luoghi, tempi e in relazione a varie tipologie di rischio. Superato il primo stadio di silenzio di cui sopra, si passa a quello della «comunicazione dei numeri».
Il lavoro degli analisti del rischio tecnicamente non cambia, ma viene in parte ridefinito dalle richieste che provengono dalla società civile: non può più esaurirsi nell’elaborazione di calcoli e modelli matematici, ma deve assumere anche una funzione di informazione e di giustificazione pubblica. La scienza rivela ancora la verità, ma a tutta la società, non più soltanto al potere. L’obiettivo di informare è strumentale a quello di convincere, di corregge le idee errate di un pubblico preoccupato perché ignorante. I numeri ricavati da stime probabilistiche, studi epidemiologici ed esperimenti di laboratorio svelano l’esatta entità dei rischi ed è con la diffusione di tali numeri che si pensa di sconfiggere le irrazionali paure e le errate percezioni della gente. Si tratta di una concezione molto ingenua, e non ci vuole molto ad accorgersi che i numeri non parlano da soli. Il linguaggio del rischio si esprime principalmente in termini di probabilità ed è ostico ai più – incluse persone con alti livelli di istruzione ma che hanno poca familiarità con la statistica1 o che la usano strumentalmente al fine di dimostrare tesi precostituite o difendere modelli discutibili.2 Si manifesta dunque l’esigenza di tradurre le formule tecniche in linguaggio quotidiano, con la selezione di pochi numeri, rendendone il significato comprensibile anche ai non iniziati mediante formulazioni semplici, esempi e analogie. Nelle parole di Fischhoff,3 l'imperativo in questo stadio è: «Tutto ciò che dobbiamo fare è spiegare che cosa intendiamo con i numeri». Gradualmente, le tecniche comunicative si raffinano e si impara a utilizzare esempi, confronti e paragoni in modo da convincere gli interessati che hanno accettato simili rischi in passato e/o che è un buon affare per loro. Tuttavia, spesso le risposte dei non specialisti non sono quelle attese e nel tentativo di capire perché si dà avvio al filone di studi denominato «percezione del rischio». Non casualmente, è un ingegnere nucleare a inaugurarlo, proponendo il metodo conosciuto come revealed preferences approach (approccio delle preferenze svelate). In un articolo pubblicato su Science nel 1969 Chauncey Starr4 sosteneva che, attraverso l’analisi di dati economici aggregati, è possibile appunto “svelare” le preferenze di diverse società, mettendo in relazione i rischi e benefici di varie attività, quantificati in termini monetari. Successivamente entrano in campo gli psicologi sperimentali che, adottando il cosiddetto «paradigma psicometrico»5 promuovono gli studi che vanno sotto l’etichetta di «expressed preferences approach» («approccio delle preferenze espresse»). I dati vengono raccolti con la somministrazione di questionari (solitamente molto lunghi) con cui agli intervistati (esperti e non) viene chiesto di esprimere le proprie valutazioni su una gamma vastissima di eventi, processi, operazioni, attività attinenti a fenomeni fisici, applicazioni mediche e tecnologiche, azioni professionali, comportamenti individuali eccetera. Elaborando tali dati, prevalentemente con l’utilizzo dell’analisi fattoriale, i ricercatori individuano dei profili di rischio in cui entrano svariate componenti, certo non solamente economiche. Fra queste: la volontarietà o meno dell’esposizione; la possibilità (percepita) di controllo; la familiarità o consuetudine; il livello (percepito) di conoscenza scientifica; la tipologia e le caratteristiche dei soggetti esposti e la gravità delle possibili conseguenze dannose, nonché la loro durata e reversibilità. Mentre nelle valutazioni esperte i decessi e i danni alla salute, alla produzione, alla proprietà, all’ambiente sono espressi in numeri e quantificati in denaro, nell’immaginario dei diretti interessati i morti, i feriti, i malati assumono i connotati dei propri familiari, amici, conoscenti; la proprietà danneggiata e l’ambiente contaminato appaiono con i tratti del paesaggio e del vivere quotidiani. Le possibili conseguenze negative di un certo evento sono dunque un elemento chiave di valutazione, anche a prescindere dalla probabilità del suo verificarsi.
Gli studi di matrice socioantropologica, in particolare quelli rifacentesi alla scuola di Mary Douglas,6-8 si focalizzano maggiormente su fenomeni collettivi e sul contesto sociale in cui si generano le risposte, anticipatorie o reattive, a eventi o a minacce di eventi con possibili conseguenze negative. La teoria culturale del rischio, molto influente e molto discussa, distingue fra diverse concezioni (o miti) della natura, che sarebbero prevalenti in diversi gruppi sociali e darebbero origine a diversi atteggiamenti e credenze in materia di rischio. Con l’apporto delle scienze sociali in generale, il discorso sul rischio si amplia, includendo dimensioni culturali, sociali, politicoistituzionali ed etiche. Pur nella loro radicale diversità, l’approccio psicometrico e quello socioantropologico contribuiscono a mettere in evidenza come i non specialisti formulino i propri giudizi e sviluppino i propri atteggiamenti attraverso percorsi interpretativi che, pur se distinti da quelli dagli esperti, non possono essere considerati come mere percezioni distorte, frutto di ignoranza o difficoltà di ragionamento logico. In termini comunicativi, l’acquisita consapevolezza delle preoccupazioni ed emozioni della gente richiede strategie atte ad affrontarle e gestirle, anziché stigmatizzarle. Nell’acuta e provocatoria formulazione di Fischhoff, il mandato è ora: «Tutto ciò che dobbiamo fare è trattarli gentilmente».
È il momento della comunicazione del rischio modello PR (pubbliche relazioni), con una concentrazione non più soltanto sul «cosa» della comunicazione, ma anche e soprattutto sul «come». Bisogna mostrare empatia, ispirare fiducia, sottolineare l’importanza dell’affidabilità e del senso di responsabilità di gestori, manager, agenzie di controllo; bisogna sviluppare stili di esposizione che tranquillizzino, rassicurino, plachino, rasserenino; bisogna parlare e convincere, ma anche ascoltare e mostrare interesse per le opinioni dell’interlocutore. La comunicazione del rischio comincia a ridefinirsi: da passaggio di informazioni e dati a senso unico a dialogo fra soggetti diversi, tutti legittimati a esprimere il proprio punto di vista. Addirittura si fa strada, in alcuni ambienti, l’idea che i non esperti, o meglio gli esperti non tecnici, possano dare un contributo ad analisi e decisioni anche in termini di conoscenza: i pescatori nel valutare lo stato delle risorse ittiche per esempio,9 o i gay malati di AIDS nel disegnare protocolli efficaci di somministrazione di farmaci.10 È questo il penultimo stadio nella catalogazione proposta da Fischhoff: «Tutto ciò che dobbiamo fare è renderli partner», in cui varrà la pena in seguito indagare la compresenza, la commistione e la confusione fra l’aspirazione alla condivisione e alla partnership e la tendenza alla delega e allo scarico di responsabilità. Scrivendo quindici anni fa e ripercorrendo i venti anni precedenti di ricerche ed attività nei campi della percezione e della comunicazione del rischio, Fischhoff si propone di condividere le lezioni apprese con i “nuovi venuti” in modo da non ripetere gli errori già rivelatisi tali, di evitare le trappole e di consolidare abilità e tecniche sperimentate come efficaci, riconoscendone al contempo le limitazioni. Come dicevo all’inizio, l’autore precisa che varie concezioni e strategie possono alternarsi in diverse sequenze o coesistere. L’ultimo stadio viene infatti da lui etichettato: «Tutti i precedenti» (All of the above) a indicare che l’esperienza acquisita offre la possibilità di scegliere diverse strade in concomitanza con obiettivi e circostanze specifiche. A distanza di altri quindici anni, dove ci troviamo e quali sono i nodi da sciogliere, i presupposti da chiarire, le ipotesi da rivedere? Nei prossimi numeri di questa rubrica mi propongo una riflessione e un approfondimento a partire dall’excursus qui presentato, utilizzando sia contributi teorici sia esperienze empiriche.

 


Building on 40yearexperience

Interest in risk communication began some forty years ago, with the application to civilian purposes of some innovative technologies, of which some were originally developed for military purposes. The exemplary case is nuclear technology. The purpose of communication was twofold. The first, openly declared, was to inform lay people about expert scientific assessments; the second, implicit although not necessarily concealed, was to convince them to accept policy (and political) decisions supposedly taken on the basis of such assessments. In analysing any communication initiative one needs to keep the second purpose clearly in mind, in order to understand fully its dynamics and outcomes. Risk communication appeared as a necessary activity when citizen groups began to show doubts, fears or even opposition to decisions concerning technological progress.
Until then, citizens were neither supposed nor expected to have any voice in such decisions, which were considered as the exclusive business of political decisionmakers, legitimised by expert judgment. «Science speaks truth to power» was the motto; no questions asked about science, power, their interactions and interrelations. In a seminal article published in 1995, Baruch Fischhoff effectively unplugged a twenty year process of risk communication and risk perception. He identified «seven stages plus one» and insisted that they are not necessarily ordered in a temporal or logical sequence. Instead, they overlap, coexist or alternate, associated with different places, periods or risk types. Once the secretive attitude characterizing the first stage of the abovementioned process is no longer possible, it is substituted by the second one, the communication of numbers. Technically, the risk assessors’ task doesn’t change, but is partially redefined by the demands originating in the civil society. Besides calculations and mathematical models, they are now requested to engage in activities of public information and justification. Science still speaks truth, but to the whole society, not just to power. The purpose of informing is instrumental to that of convincing, of correcting lay people’s wrong ideas generated by their ignorance. As it is assumed that the real nature of risks is revealed by the numbers obtained through probabilistic estimates, epidemiological studies, and laboratory tests, the expectation follows that the dissemination of such numbers will defeat people’ irrational fears and wrong perceptions. This is a very naïve view and it doesn’t take long to discover that numbers don’t speak by themselves. The language of risk is expressed mainly in probabilistic terms and is alien to many (or most), including people of high literacy but not familiar with statistics1 or those who use it instrumentally for defending prefabricated arguments and promoting questionable models.2 It becomes thus necessary to translate technical jargon in everyday language, by selecting only a few numbers and illustrating their meaning by simple explanations, examples, and comparisons. Fischhoff3 identifies this stage with the motto «All we have to do is to explain what we mean by the numbers». Gradually communication techniques become more sophisticated, with the use of illustrations and associations devoted to convince the audience that they’ve accepted similar risks in the past and that it’s a good deal for them. However, more often than not, nonexpert response differs from expectations and the need to understand why becomes more and more urgent. The field of risk perception research was pioneered, not by chance, by a nuclear engineer, Chauncey Starr4 who presented his method (known as the «revealed preferences approach») in an article published in Science in 1969. Starr used money as the measurement unit for the risk and benefits of a number of different activities and claimed to be able to “reveal” and compare the preferences of different societies for such activities through the analysis of a huge set of economic data. Later it was the turn of experimental psychologists who promoted the so called «psychometric paradigm»5 and performed a multitude of studies which are grouped under the label of «expressed preferences approach». Data was collected by submitting long questionnaires to large numbers of subjects (both risk experts and not) who were requested to express their opinions and judgments on a great range of events, processes, and activities related to, among other, medical and technological applications, professional actions, and individual behaviours. From data analysis, primarily factor analysis, some «risk profiles» emerged with variety of components, among which: voluntariness of the risk, (perceived) control, familiarity and habit, (perceived) level of scientific knowledge, type and characteristics of exposed subjects, seriousness, duration and reversibility of the possible negative consequences.

Such results showed unequivocally that experts’ (at least when acting in the role of experts) assessments and lay people’s appraisals differ. While in the calculations of the former casualties, health and environmental damage, production failures and property loss are quantified in monetary terms, in the thoughts of the latter what is at stake are the lives of real people, their kin and friends, the features of their familiar landscape, the habits of their daily life. The possible negative consequences of a given event are thus a key criterion in lay judgment, independent of the probability of its occurrence. The studies of socioanthropological background, in particular those by Mary Douglas and her disciples, were very influential and much discussed in the risk literature.6-8 They specifically address the collective dimensions of riskrelated attitudes. They also deepen the exploration of the social context influencing the anticipatory or reactive responses to the occurrence or threat of events which can bear negative consequences. Douglas and colleagues’ cultural theory identifies a variety of conceptions (or myths) about Nature, which are considered to be prevalent in distinct social groups, giving origin to a set of diverse attitudes and beliefs about risk. Thanks to the contributions of the social sciences overall, the risk discourse broadens considerably, incorporating cultural, social, ethical, political, and institutional dimensions. Despite their radical diversity, the psychometric approach and the socioanthropological one both contributed to bringing to light how nonspecialists develop their attitudes on the basis of reasoned critical paths of interpretation. These are distinct from those followed by the experts, but the matter cannot be settled in terms of distorted perceptions, deriving from ignorance or failures in logical reasoning. In concomitance with this new awareness, approaches based on blame and censorship are abandoned and new communication strategies are designed for confronting and managing people’s worries and emotions. In Fischhoff’ sharp and provocative formulation, the slogan becomes: «All we have to do is to treat them nice».
Risk communication now finds inspiration in PR (public relations), focussing not only on the content of the message, but on how it is packaged and conveyed. Communicators must show empathy and appear trustworthy; they have to stress the reliability of promoters, managers, and inspecting agencies; their words and their style must be confident and reassuring; their goal is to convince while listening to their interlocutors and showing understanding for their concern. Risk communication activities are reshaping: the ideal is no longer a oneway flow of information and data from specialists to the lay public, but a dialogue between different actors, all legitimised to express their viewpoints. In some quarters even the idea begins to surface that nonspecialists, or rather those without a technical expertise, may contribute to analyses and decisions on the basis of their nonexpert but still possibly valuable knowledge. For example, fishermen when assessing fisheries depletion9 or gay AIDS sufferers in devising effective protocols for treatment with experimental medicines.10 The penultimate stage in Fischhoff’s classification is indeed «All we have to do is to make them partners». It will be worth, in next issues to investigate the coexistence, the mixing up and the confusion between the genuine search for partnership and the tendency to delegate responsibility and avoid liability. In his article of fifteen years ago, Fischhoff explored the previous twenty years or research and practice in risk perception and communication, identifying the mistakes which had been made and highlighting the lessons which had been learned, also with the purpose of warning newcomers to the field about already recognized but possibly still tempting pitfalls. As I pointed out in the beginning, he argued that different designs and strategies may alternate in different sequences or even coexist. Indeed he calls the last step «All of the above» indicating that, thanks to the experience acquired, different paths can be taken depending on specific objectives and circumstances. Fifteen years later, where do we stand and which are the hurdles to overcome, the assumptions to be questioned, and the hypotheses to be revised? I want to deepen the themes sketched here in forthcoming columns, drawing on both theoretical contributions and factual experiences.

Bibliografia/References

  1. Tversky A, Kahneman D. Belief in the Law of Small Numbers. Psychology Bulletin 1971; 76 (2): 105110.
  2. Taleb N. The Black Swann. London, Allen Lane, 2007.
  3. Fischhoff B. Risk Perception and Communication Unplugged: Twenty Years of Process. Risk Analysis 1995; 15 (2): 137146.
  4. Starr C. Social Benefit Versus Technological Risk: What is Our Society Willing to Pay for Safety? Science 1969; 165: 12321238.
  5. Slovic P. Perception of Risk: Reflections on the Psychometric Pardigm. In: Krimsky S, Golding D (eds). Social Theories of Risk. Westport CT, Praeger, 1987, pp. 117152.
  6. Douglas M, Wildavski A. Risk and Culture: An Essay on the Selection of Tecnological and Environmental Dangers. Berkeley, University of California Press, 198.
  7. Schwarz M, Thompson M. Divided We Stand: Redefining Politics, Technology and Social Choice. Hemel Hempstead, Harvester Wheatsheaf, 1990.
  8. Rayner S. Cultural Theory and Risk Analysis. In: Krimsky S. and Golding D (eds). Social Theories of Risk. Westport CT, Praeger, 1992, pp. 83115.
  9. WaltnerTowes D, L. Noronha, D. Bavington. Science and society in placebased communities: uncomfortable partners. In: Guimarães Pereira Â, Guedes Vaz S, Tognetti S. Interfaces between Science and Society. Sheffield, Greenleaf Publishing, 2006.
  10. Collins H, Pinch T. The Golem at Large: What You Should Know about Technology. Cambridge Mass, Cambridge University Press, (1a ed. 1998), 2006.

Approfondisci su epiprev.it Vai all'articolo su epiprev.it Versione Google AMP