Nucléaire : comment les rapports de pouvoir influencent la perception du risque

On entend souvent que le grand public sur-estime le risque nucléaire. A moins que ce ne soit plutôt les experts scientifiques qui le sous-estiment ? En fait, le risque “réel” est une question très politique.

nuclear-power-plant-70893-1920

 

Les 2 et 3 mai 1986, de violentes pluies s’abattent sur le comté de Cumbria, au nord ouest de l’Angleterre. Rien d’inhabituel pour les moutons qui paissent tranquillement dans cette région montagneuse. Sauf qu’en tombant, les pluies plaquent au sol une quantité importante de césium 137, un élément produit par la fission de l’uranium et présent dans le nuage radioactif qui survole alors l’Europe. Le ministère de l’Agriculture se veut tout de même rassurant et assure que l’accident nucléaire de Tchernobyl n’aura pas de conséquences sur le territoire britannique.

Après la tempête, les autorités locales relèvent pourtant des niveaux alarmants de radioactivité au pays de Galles, en Ecosse, et dans le comté de Cumbria. Dans ce comté rural, le bétail risque d’ingérer les éléments radioactifs tombés sur les pâtures, et de contaminer ainsi les consommateurs de viande. Plus que tous les autres animaux, les moutons inquiètent les autorités à cause des méthodes d’élevage traditionnelles, qui impliquent le déplacement régulier des troupeaux à travers les montagnes. Des mesures d’urgence s’imposent, mais lesquelles ?

Le gouvernement mandate rapidement un contingent d’experts scientifiques. Après tout, qui mieux que des experts scientifiques pour évaluer les risques ? Sur place, leur collaboration avec les éleveurs locaux ne se passera pourtant pas comme prévu…

Rapidement, les experts procèdent à des prélèvements de terrain pour prédire le temps qu’il faudra pour que les taux de césium radioactif repassent sous des niveaux acceptables. Résultat : la moitié du césium radioactif devrait se désintégrer en 3 semaines. Ils estiment d’ailleurs que, d’ici là, l’herbe contaminée aura déjà été remplacée par de nouvelles pouces.

Comme les experts sont formels, le ministère de l’Agriculture décide d’interdire l’abattage et les déplacements des moutons pour une durée de 3 semaines, à partir du 20 juin. Plus de 2,5 millions de moutons répartis dans 5000 élevages sont concernés. De nombreuses familles se retrouvent d’un seul coup au bord de la ruine : c’est une catastrophe économique et sociale pour la région tout entière. Mais ce n’est pas la seule raison qui pousse les éleveurs à s’en prendre aux experts.

En fait, les éleveurs savent pertinemment que les calculs des experts sont faux. Et cela même s’ils n’ont jamais étudié la physique nucléaire. Comment peuvent-ils en être aussi certains ? Il se trouve qu’ils ont observé de près les méthodes des experts. Ces derniers n’ont prélevé que quelques échantillons de terrain et en ont déduit que le sol était uniformément argileux dans toute la zone, ce qui a ensuite servi de base à leurs calculs. Pour les éleveurs, cette simplification est complètement absurde ! Ils connaissent trop bien le terroir de leurs montagnes : les variations écologiques et climatiques y sont innombrables.

Mais lorsqu’ils s’adressent aux experts pour le leur faire remarquer, ils ne rencontrent que mépris et dédain de la part des grands intellectuels. Quelques jours après les premières déclarations du gouvernement, les autorités locales constatent pourtant que les taux de césium radioactif restent plus élevés que prévu dans beaucoup d’endroits.

S’en suit un long feuilleton de réévaluations scientifiques et de prolongations politiques. Il faudra en réalité 26 ans pour que toutes des restrictions pesant sur les élevages du comté de Cumbria soient levées.

Au fil des études, les éleveurs accumulent un certain nombre de griefs envers les experts scientifiques. Les scientifiques, en effet, mettent en place des expériences qui reposent sur des méthodes standardisées, qui se veulent universelles, mais qui nécessitent de simplifier et de réduire drastiquement la complexité de la situation locale. Et puis ils conçoivent des expériences irréprochables sur le papier mais impossibles à mettre en oeuvre. Ils imaginent par exemple de parquer les moutons dans des enclos alors qu’ils n’y sont pas du tout préparés, eux qui ont l’habitude des grands espaces. Les éleveurs savent que les moutons ne supporteront pas l’emprisonnement, et que cela pourrait même stresser les bêtes au point de fausser les résultats. Mais les experts décident de ne pas les écouter. Sans surprise, ces expériences échouent lamentablement.

“Pour eux, une ferme est une ferme et une brebis une brebis. Ils s’imaginent qu’on se contente de les produire à la chaîne ou quelque chose du genre”, raconte un éleveur. Le sociologue des sciences Brian Wynne, présent à l’époque, constate que les scientifiques ont souvent regroupé plusieurs fermes ou mêmes plusieurs vallées sous un même indicateur. Ce qui n’a aucun sens pour les éleveurs : ils savent que les modes de gestion des troupeaux varient d’une ferme à l’autre, et parfois au sein d’une même exploitation.

“Le coeur du problème entre épistémologie profane et connaissance experte se situait autour d’un partage entre une culture scientifique de la prévision et du contrôle tenue pour allant de soi et une vision propre aux éleveurs selon laquelle il était illusoire d’espérer un contrôle total sur le spectre entier des facteurs environnementaux et sociaux à prendre en compte dans la gestion d’un élevage. [….] L’idée même de prédictibilité paraissait intrinsèquement improbable aux éleveurs qui préféraient en conséquence les notionsd’adaptabilité et de flexibilité, deux attitudes qui se trouvaient au centre de leur identité culturelle et de leur sens pratique.” — Brian Wynne, “Une approche réflexive du partage entre savoir expert et savoir profane”, les Cahiers de la sécurité intérieure, n°38, 1999.

Le mépris des experts à l’égard des savoirs profanes est ici révélateur de la façon dont nos autorités politiques et scientifiques conçoivent les risques.


Risques réels et risques perçus

Après l’accident de Fukushima, le baromètre de l’Institut de Radioprotection et de Sûreté Nucléaire constatait que les Français n’avaient jamais été aussi nombreux (55 % en septembre 2011) à estimer que les risques liés aux centrales nucléaires étaient élevés, et n’avaient jamais été aussi peu nombreux (24 %) à accorder leur confiance aux autorités.

A propos des risques d’accident nucléaire majeur, l’économiste François Lévêque écrit pourtant :

“Un accident nucléaire majeur est un événement rare. Partant, sa probabilité est surestimée. Comme la variole ou le botulisme, sa fréquence est perçue par le public comme plus grande qu’elle n’est.” — François Lévêque, Nucléaire On/Off : Analyse économique d’un pari, 2013.

On considère souvent que les experts scientifiques sont les seules personnes légitimes et compétentes pour évaluer un risque. Cette évaluation scientifique permettrait de définir un risque “réel”, “rationnel” et “objectif”. A l’inverse, on considère que le grand public n’en a souvent qu’une perception fantasmée, émotionnelle et subjective.

De fait, il y a souvent un décalage entre, d’un côté, la manière dont le grand public perçoit un risque et, de l’autre, le résultat du calcul probabiliste réalisé par les scientifiques. Mais ce décalage s’explique-t-il uniquement par un trop plein de subjectivité et de biais cognitifs, accompagné d’un grave manque de connaissances ? On remarquera évidemment que seuls les profanes sont accusés d’être subjectifs ou biaisés et de manquer de connaissances.

Les sciences sociales tendent pourtant à rejeter cette opposition entre des risque réels, “objectifs”, et des risques perçus, “subjectifs”. La sociologie du risque se penche sur la question depuis les années 1980 et montre que l’évaluation des risques est même subjective par nature. Ou, comme le résume le sociologue Patrick Peretti-Watel, que lévaluation du risque dépend surtout du point de vue duquel on se place.

Alors oui, la subjectivité, les biais et le manque d’information sont bien présents, mais ils ne concernent pas que les profanes…


Des probabilités pas très rationnelles ?

Elles semblent nombreuses, les expériences en psychologie qui tendent à montrer que les humains ont une perception erronée des probabilités.

Les probabilités sont pourtant très importantes pour le calcul scientifique d’un risque. Il se compose en général de deux mesures : la probabilité d’occurrence d’un événement et l’ampleur de ses conséquences physiques ou matérielles.

Puisque nous percevons mal les probabilités, notre conception des risques serait-elle donc naturellement irrationnelle ?

Dans les années 1990, l’anthropologue britannique Mary Douglas constate que les humains savent très bien appréhender une multitude de dangers et d’incertitude liés à leur environnement habituel. C’est une pensée intuitive, qui repose sur des pratiques quotidiennes, mais qui n’a aucune chance de transparaître dans les expériences complètement artificielles réalisées en laboratoires.

“N’importe quelle tribu de chasseurs, de pêcheurs, les éleveurs ou les marins ont une compréhension intuitive des probabilités, qui leur sert à évaluer leur matériel, à prédire le temps, la marée, le comportement des poissons, des moutons.” — Mary Douglas, citée par Patrick Peretti-Watel dans La Société du risque”, 2010.

Un pêcheur qui sait très bien évaluer les dangers de la mer ne peut pas s’appuyer sur ses connaissances ou son savoir-faire pour prédire la couleur des 100 prochaines billes qui sortiront d’une boîte en plastique.

Pendant des millénaires en effet, les humains ont été confrontés à des dangers relativement similaires. Parmi eux, on trouve évidemment les catastrophes naturelles comme les tempêtes, inondations, séismes, éruptions volcaniques etc. A partir des 18ème et 19ème siècles, le développement des méthodes statistiques a même permis de montrer que ces événements se produisaient avec une certaine régularité. Il y a bien sûr les événements saisonniers, qui surviennent d’une année sur l’autre et dont les risques sont bien connus. Mais on peut également citer des événements plus rares comme les “crues centennales” à Paris qui, comme leur nom l’indique, se produisent en moyenne une fois par siècle.

Les choses se présentent différemment pour les risques technologiques et industriels. Ils exposent aujourd’hui nos sociétés à des catastrophes environnementales qui répondent à une tout autre logique, car ces catastrophes ne sont plus “naturelles” mais causées par les humains eux-mêmes. Les catastrophes naturelles classiques ont en général un début et une fin : mêmes les plus impressionnantes ont des limites dans le temps et dans l’espace. En revanche, certaines grandes catastrophes industrielles peuvent dorénavant être imprévisibles et irréversibles.

Le sociologue Patrick Peretti-Watel fait remarquer que pour certaines catastrophes rarissimes, comme les accidents nucléaires, ou très diffuses, comme la pollution atmosphérique et les perturbateurs endocriniens, il devient presque impossible de calculer une probabilité d’occurrence.

Il est d’ailleurs tout aussi difficile d’estimer les conséquences de ces catastrophes industrielles, parce qu’elles concernent des écosystèmes et des réactions en chaîne tellement complexes, que même les modèles scientifiques les plus poussés ne peuvent les prédire de manière exhaustive. Parfois les conséquences peuvent concerner un pays entier, un continent, voire même toute la planète, pour des dizaines, des centaines ou des milliers d’années. C’est le cas de la catastrophe climatique en cours, dont les nouveaux modèles scientifiques réévaluent sans cesse la gravité.

A propos du risque d’accident nucléaire, l’économiste François Lévêque constate que la réalité s’est éloignée des prévisions scientifiques.

“Avant la fusion de cœur des réacteurs 1, 2 et 3 de Fukushima Daichi, huit accidents majeurs affectant des centrales nucléaires s’étaient déjà produits dans le monde. Ce chiffre est élevé par rapport à celui escompté par les experts. Les observations ne semblent pas coller avec les résultats des modèles probabilistes d’accidents nucléaires élaborés depuis les années 1970. Paradoxalement, le nombre d’accidents majeurs est plus proche du risque perçu par les citoyens.” — François Lévêque, Nucléaire On/Off : Analyse économique d’un pari, 2013.


Une question de point de vue

Le chercheur Patrick Peretti-Watel considère que si certaines divergences entre experts et profanes sont souvent irréconciliables, ce n’est pas qu’une question de rationalité. Pour la simple et bonne raison que le “risque” n’existe pas à l’état naturel : il s’agit d’une construction sociale. C’est un concept inventé par les humains pour essayer de prédire, de quantifier, et donc de maîtriser un certain nombre de dangers.

Il se trouve que les scientifiques ont choisi de se représenter ces dangers à travers un calcul probabiliste. Pour les scientifiques, le risque est donc un chiffre. Il est décrit comme le résultat d’un calcul rationnel et objectif, ce qui le rendrait incontestable. Ce chiffre obtenu de manière scientifique est souvent qualifié de risque “réel”, par opposition au risque “perçu” par les profanes. Pourtant, le risque “réel” tel que défini par les scientifiques n’en reste pas moins une représentation mentale produite par des conventions sociales.

“La notion d’amplification du risque a le tort de laisser entendre (sans vraiment le dire) qu’il existe un risque réel, objectif, qui est amplifié, donc déformé, par les médias et le public. Dans le cas de la vache folle, en s’appuyant sur les certitudes scientifiques acquise depuis la fin des années 90, on pourrait tout aussi bien défendre le point de vue inverse : les experts et les autorités n’ont-ils pas “diminué” le risque ?” — Patrick Peretti-Watel, La Société du risque, 2010.

On l’a dit, le risque est une construction sociale. Or on ne peut réduire une construction sociale à un seul et unique calcul, aussi “scientifique” soit-il.

Le chercheur Paul Slovic montre d’ailleurs que la manière dont on étudie les risques liés à une technologie peut la faire apparaître plus ou moins risquée, sans rien changer à la formule mathématique. Entre 1950 et 1970, on peut dire que les risques d’accidents mortels dans les mines de charbon américaines ont diminué si l’on compare le nombre d’accidents mortels au nombre de tonnes de charbon produites. Mais si l’on ramène le nombre d’accidents mortels au nombre total d’employés, on peut dire que les risques d’accidents mortels ont au contraire légèrement augmenté.

Lequel des deux indicateurs est-il le meilleur pour estimer les risques d’accidents mortels dans les mines de charbon ? Eh bien cela dépend du point de vue ! Pour le gouvernement et les industriels, l’objectif est à l’époque de garantir la production d’une grande quantité d’énergie : ils privilégient une vision du risque centrée sur la production de charbon. Mais pour un syndicat de travailleurs, l’objectif est de garantir avant tout la sécurité physique des employés : il privilégie donc une vision du risque centrée sur le nombre total d’employés.

La manière dont on définit un risque détermine la solution qui apparaîtra comme étant la plus “rationnelle” . Si le risque est défini d’une certaine façon, alors une option va inévitablement apparaître comme étant la plus rentable ou la plus sûre ou simplement “la meilleure”. Si le risque est défini d’une autre façon, de manière à englober des éléments de contexte et des critères qualitatifs, les solutions seront probablement hiérarchisées autrement. La personne qui choisit la définition du risque détient le pouvoir.” — Paul Slovic, “Trust, Emotion, Sex, Politics, and Science: Surveying the Risk-Assessment Battlefield”, Risk Analysis, Vol 19, No 4, 1999.

Les sociologues des sciences le savent bien : l’appréciation d’un risque est avant tout une question de culture et de valeurs, quelque soit la compétence ou l’incompétence scientifique de chacun. Au-delà des chiffres bruts, ce sont nos valeurs qui donnent un sens aux risques et qui leur donnent une signification particulière.

C’est d’ailleurs parce que nous nous appuyons sur certaines valeurs que nous faisons la différence entre des “bons” risques, qui seraient acceptables et nécessaires, et des “mauvais” risques qu’il faudrait à tout prix éviter. Comme ces valeurs ne sont pas toujours universelles, nous ne sommes pas toujours d’accord à propos de ce qui constitue un “bon” ou un “mauvais” risque.

Certains citoyens estiment par exemple que les conséquences potentielles d’un accident nucléaire seraient absolument inacceptables, quelqu’en soit la probabilité d’occurrence. Les scientifiques peuvent passer autant de temps qu’ils le veulent à essayer de montrer qu’il est extrêmement improbable qu’un tel événement ne survienne, la question n’est pas là. Le risque n’en vaut tout simplement pas la chandelle.

“Les experts du Commissariat à l’énergie atomique (CEA) disposent de tout un arsenal rhétorique pour prouver la sûreté du parc nucléaire français, mais ces arguments ne convainquent pas un militant écologiste qui estime tout simplement que l’Homme n’a pas le droit de jouer avec la Nature. — Patrick Peretti-Watel, La Société du Risque, 2010.

Bien entendu, il ne s’agit pas là du seul argument retenu contre la production d’énergie nucléaire par les écologistes, et l’on pourrait citer de nombreuses préoccupations écologiques, sanitaires et économiques. Mais pour citer un autre argument éthique, certains opposants au nucléaire estiment par exemple qu’il est tout simplement injuste d’imposer nos déchets nucléaires aux générations futures.

D’après le chercheur américain Paul Slovic, un certain nombre d’interrogations morales influencent la manière dont la population perçoit les risques. Des interrogations que le calcul probabiliste ne prend pas du tout en compte !

Ici comme souvent, il y a un gouffre entre des experts scientifiques qui accordent beaucoup de valeur à un calcul probabiliste qui se voudrait“apolitique”, et des profanes qui se posent des questions éminemment politiques.


Evaluer le risque politique

A la différences des risques pré-modernes, dont font partie les catastrophes “naturelles”, les nouveaux dangers industriels peuvent être invisibles et imperceptibles pour le commun des mortels. La contamination nucléaire n’a ni odeur ni couleur. C’est aussi le cas pour les ondes téléphoniques, la pollution atmosphérique ou les perturbateurs endocriniens.

Des appareils scientifiques sont donc indispensables pour constater la présence de ces dangers et mesurer leur évolution. Dans ces conditions, comment reprocher à des profanes de ne pas avoir conscience d’une menace qu’il leur est biologiquement impossible de percevoir ?

En réalité, on leur demande surtout de se fier aux déclarations des autorités politiques et scientifiques. Et là, il y a comme un couac. Comme l’explique Paul Slovic, l’une des préoccupations qui influencent le plus la perception d’un risque est la suivante : peut-on vraiment faire confiance aux autorités et à leurs experts ?

Les experts scientifiques interprètent souvent la défiance des citoyens à l’égard de leur autorité comme le résultat de puissants biais cognitifs. Mais ce genre d’interprétation “apolitique” révèle aussi une certaine naïveté de la part des experts.

Les autorités politiques et scientifiques ont longtemps laissé croire qu’elles étaient parfaitement en mesure de contrôler les risques industriels et technologiques. Pourtant, avec la multiplication des accidents industriels et des catastrophes environnementales, nombre de citoyens se sentent floués. Pour ces citoyens, les autorités aurait même facilité la prolifération de certains risques au nom d’intérêts politiques et économiques.

L’invisibilité des nouveaux risques semble bien être le facteur déterminant de leur prolifération, dans une société qui valorise la réussite matérielle, donc une “culture du visible”. La course entre les richesses perceptibles et les risques imperceptibles est jouée d’avance : un mal invisible ne peut rivaliser avec un bien visible. Paradoxalement, c’est justement pour cette raison que les risques finissent par l’emporter.” — Patrick Peretti-Wattel, La Société du risque, 2010.

Après les accidents nucléaires de Tchernobyl et Fukushima, on peut légitimement supposer qu’une partie du décalage entre évaluation scientifique et profane repose sur une méfiance grandissante des citoyens à l’égard des autorités politiques et scientifiques.

Dans un système politique qui se définit comme démocratique, les citoyens ne supportent plus que des risques importants leur soient imposés par une élite politique et économique.

Ce sont là encore des préoccupations capitales pour les profanes. D’après Paul Slovic, elles se décomposent comme suit :

  • Le risque est-il volontaire ou subi ? Autrement dit, m’a-t-on laissé la possibilité de refuser ce risque ?
  • Le risque est-il individuellement contrôlable ? Puis-je contrôler moi-même mon exposition à ce risque ?
  • Le risque est-il juste ? Est-il produit par certains mais supporté par d’autres ?”

Si un risque est perçu comme involontaire, incontrôlable et/ou injuste, les citoyens perçoivent ce risque comme étant globalement plus élevé.

Actuellement, les projets nucléaires laissent peu de place au consentement des individus et à la gestion démocratique des installations ou de leurs objectifs. Par ailleurs, le nucléaire est souvent perçus comme un risque “injuste”, parce qu’il menacerait un nombre incalculable d’humains et d’êtres vivants mais bénéficierait en priorité à une petite élite d’humains. Pour certains, le nucléaire coche ici toutes les mauvaises cases.

Les éleveurs de Cumbria n’ont pas eu leur mot à dire à propos de la construction de la centrale de Tchernobyl, et n’ont évidemment eu aucun contrôle sur leur exposition à ce risque. Ils n’ont pas non plus bénéficié de l’électricité produite à Tchernobyl. Après l’accident, des “experts” extérieurs sont venus dans leurs montagnes pour réaliser des études à la fiabilité douteuse. C’est de leurs propres yeux que les éleveurs ont pu constater les failles de tout un système d’expertise, de l’URSS jusqu’à leurs fermes. Sans même les consulter, le gouvernement a ensuite décidé de leur appliquer des restrictions qui ont eu des répercussions dramatiques sur leur activité, leurs familles et leurs vies. Que peuvent bien penser ces éleveurs de la gestion des risques nucléaires ?

Ce n’est pas pour rien que les profanes évaluent le risque à l’aune de critères politiques qui dépassent largement les formules mathématiques des experts. Pour Patrick Peretti-Watel, la nature des nouveaux risques industriels et technologiques requiert même un nouveau contrat social. Au-delà des questions purement “scientifiques”, ces risques impliquent en effet des décisions d’une importance considérable pour l’équilibre de nos sociétés.


Tous inégaux face au risque

Certaines études tendent même à montrer que les citoyens ont une perception différente des risques selon leur profil socio-démographique. C’est-à-dire qu’ils ne perçoivent pas les risques de la même manière selon qu’ils sont riches ou pauvres, diplômés ou non, blancs ou racisés, hommes ou femmes.

Ce n’est pas une question de rationalité, mais de vulnérabilité. Les recherches en sociologie et en géographie l’ont déjà bien documenté : nous ne sommes pas tous égaux devant les risques eux-mêmes.

Certaines classes sociales et certains groupes sociaux sont beaucoup plus touchés que d’autres par les maladies et les problèmes environnementaux. Par exemple, les installations les plus polluantes se trouvent en général dans les endroits où habitent les personnes les plus pauvres. Aux Etats-Unis, des chercheurs ont même montré que les populations noires et les minorités ethniques sont exposées de manière disproportionnée aux problèmes environnementaux ; ça s’appelle le racisme environnemental. Peut-on vraiment s’étonner que ces personnes se sentent plus menacées ?

De fait, les risques sont répartis de manière asymétrique au sein de la société. Cette inégalité correspond tout à fait aux discriminations sociales habituelles.

La communauté scientifique n’est d’ailleurs pas épargnée par le phénomène. A compétences égales, les femmes scientifiques percevraient certains risques comme étant plus élevés. Dans une étude, Richard P. Barke, Hank Jenkins-Smith et Paul Slovic ont pu constater que les risques nucléairesétaient perçus comme étant plus élevés par les chercheuses en physiqueque par les chercheurs. Cette différence ne s’explique ni par un manque de rationalité ni par un manque de connaissances de la part des chercheuses.

De nombreuses études réalisées aux Etats-Unis ont pu remarquer que, par rapport au reste de la population, les hommes de couleur blancheperçoivent régulièrement les risques sanitaires, technologiques et environnementaux comme étant plutôt faibles. Mais cela ne concernerait pas tous les hommes blancs. Paul Slovic et ses collègues ont remarqué dans une étude que seulement un tiers de ces hommes blancs avaient une perception extrêmement faible des risques, si bien qu’ils tiraient la moyenne du groupe entier vers le bas.

En décortiquant leurs données, les chercheurs ont remarqué que ce petit groupe d’hommes blancs était particulièrement éduqué, avec une proportion élevée de diplômés de l’enseignement supérieur, que beaucoup d’entre eux avaient des revenus élevés et qu’ils étaient plutôt conservateurs.

Les sciences sociales proposent une explication très politique à ce white man effect bien connu des chercheurs. Les hommes blancs éduqués et aisés tendent à considérer que le monde est moins risqué parce que le monde est effectivement moins risqué pour eux. Ce sont eux qui détiennent le plus de pouvoir économique et politique, de sorte que les technologies et les lois sont façonnées à leur avantage. Ce sont donc eux qui en tirent le plus de bénéfices, tout en y étant les moins vulnérables.

A l’inverse, les femmes, les populations racisées et les classes populaires tendent à considérer que le monde est plus risqué parce que le monde est effectivement plus risqué pour elles. De manière générale, elles profitent beaucoup moins des bénéfices des technologies, ont moins de pouvoir économique et politique, et sont donc moins en mesure de contrôler leur environnement. Elles se retrouvent donc plus souvent en situation de vulnérabilité, confrontées à des risques subis, incontrôlables et injustes.

“On comprend bien pourquoi l’argumentaire traditionnel basé sur le calcul probabiliste des risques ne suffit pas pour amener les gens à voir le monde de la même manière que les hommes blancs”.— Paul Slovic, “Trust, Emotion, Sex, Politics, and Science: Surveying the Risk-Assessment Battlefield”, Risk Analysis, Vol 19, No 4, 1999.

La manière dont les profanes, et en particulier les femmes, les populations racisées et les classes populaires perçoivent les risque ne se résume donc pas à des questions de rationalité et de connaissances scientifiques. Elle prend aussi racine dans des réalités politiques quotidiennes dont les experts scientifiques, qui ont souvent une situation socio-économique privilégiée, n’ont pas toujours conscience…


Bibliographie indicative

  • Richard P. Barke, Hank Jenkins-Smith and Paul Slovic, “Risk Perceptions of Men and Women Scientists”, Social Science Quarterly, Vol. 78, №1, March 1997, pp. 167–176.
  • François Lévêque, “Le risque d’accident nucléaire majeur : calcul et perception des probabilités”, in Nucléaire On/Off : Analyse économique d’un pari, Dunod, 2013.
  • Patrick Peretti-Watel, La Société du risque, La Découverte, 2010.
  • Paul Slovic, “Trust, Emotion, Sex, Politics, and Science: Surveying the Risk-Assessment Battlefield”, Risk Analysis, Vol 19, No 4, 1999.
  • Brian Wynne, “Une approche réflexive du partage entre savoir expert et savoir profane”, Les Cahiers de la sécurité intérieure, n°38, 1999.

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.