Irma-Afnani
Sociologue, militante, ZADiste
Abonné·e de Mediapart

15 Billets

0 Édition

Billet de blog 9 févr. 2021

Irma-Afnani
Sociologue, militante, ZADiste
Abonné·e de Mediapart

Les neurosciences, c'est de la science ?

Petit état des lieux sur la misère des neurosciences : on s'intéressera particulièrement au recours aux statistiques et à l'IRM. Quelques articles scientifiques récents figurent dans les liens et intéresseront certaines lectrices et lecteurs.

Irma-Afnani
Sociologue, militante, ZADiste
Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Les neurosciences, ce paradigme idéologico-scientifique, traversent une crise majeure peu relayée par les médias. Ce socle de pensée regroupant des disciplines et approches voisines (la neuropsychiatrie, la neurologie, le neurocognitivisme, la psychologie expérimentale, la neuro-imagerie, la neuropsychologie, la psychologie expérimentale, la neuro-économie, etc.) nous est présenté comme le nec plus ultra de ce qui se fait de plus sérieux en matière de compréhension de l'esprit humain. Un des axiomes des neurosciences consiste d'ailleurs à poser que l'esprit humain n'est pas autre chose que l'activité du cerveau. Or, voilà qui est très discutable et pose des questions d'ordre philosophique et sémantique... mais puisqu'il s'agit d'un axiome, c'est-à-dire un énoncé non-démontré à partir duquel se constitue un savoir, admettons.

Comme les neurosciences se réclament de la science, une science evidence based, on s'imagine que les observations qu'elles font doivent pouvoir être vérifiées par quiconque se donnerait la peine de reproduire les observations ou les expérimentations... Chiche ! Les lycéens des cours de physique-chimie le savent bien : les expériences scientifiques, ça peut se reproduire !

Le paradigme des neurosciences appuie son processus de constitution des savoirs sur deux principaux outils, l'un et l'autre ayant un certain gage de sérieux et d'efficacité : les statistiques et l'imagerie médicale (l'IRM fonctionnelle en particulier). Ces deux outils appellent chacun une remarque :

  • Le recours aux statistiques par les neurosciences consiste souvent à établir des corrélations avant de statuer sur la nature de ces corrélations (observe-t-on un lien de cause à effet ?). Or, les chercheurs oublient régulièrement que les corrélations observées sont représentatives de l'ensemble de la population sous la réserve d'un certain seuil (généralement : p=.05). Autrement dit, ils oublient que la corrélation observée a une chance sur vingt (= 5%) d'être dûe au hasard. Les énoncés les plus rigoureux des neurosciences statistiques sont donc au mieux probablement vrais, "peut-être bien vrais".
  • Puisque tout se déroulerait dans le cerveau, l'observation de l'activité de cet organe est censée fournir la preuve de son rôle central. Comme souvent, le nouvel outil suscite beaucoup d'enthousiasme et d'espoir. Mais il ne devrait pas nous dispenser de penser et son recours à visée argumentative pourrait bien n'être qu'un effet rhétorique dont la véritable efficacité démonstrative est maigre voire inexistante comme nous allons le voir plus bas.

Dans un contexte où deux tiers des études en psychologie ne peuvent pas être reproduites (selon cette étude de 2015 signée par une centaine de chercheurs dans Science ; lire également ceci) et où 96% des publications en recherche biomédicale sont considérées comme inexactes par les statisticiens de métier (cf. leur tribune dans Nature en 2019) que peut-on dire des neurosciences en 2021 ?

En 2016, Anders Eklund et ses collègues (lire l'article) ont comparé les traitements informatiques d'IRMf avec les trois principaux logiciels utilisés en neurosciences. Ils ont ainsi comparé l'interprétation des images de sujets sains, au repos, comparables. Au lieu des 5% de marge d'erreur tolérée, les différences significatives allaient jusqu'à 70%. Nous parlons de sujets sains et inactifs : j'imagine que s'il s'était agi de sujets présentants des troubles neurologiques ou cognitifs, ou simplement réalisant des opérations simples (lire, résoudre une addition, se souvenir, rêver, etc.), les différences auraient été si importantes que la possibilité de rechercher des corrélations n'aurait plus guère de sens. Ce qu'Anders Eklund met au jour, c'est l'immense continent de faux positifs qui hantent littéralement les théories des neurosciences qui s'appuient sur l'IRMf.

Face à ce constat, Olivier Coulon, directeur de recherche à l'Institut de neuroscience de la Timone, explique : « les méthodes dites paramétriques [c'est-à-dire les méthodes probabilistes et inférentielles mobilisées par l'IRMf] actuellement utilisées se basent sur de nombreuses hypothèses qui n'ont jamais été totalement validées expérimentalement ». En d'autres termes, l'outil dont on attend qu'il apporte des observables et des preuves repose en fait sur un pur montage mathématique spéculatif qui n'a pas encore reçu de validation par l'expérimentation. On se souvient de la grande méfiance que Claude Bernard, le promoteur de la méthode expérimentale en médecine, vouait aux statistiques. Selon lui en effet, les statistiques seraient antinomiques avec la démarche expérimentale... les chercheurs d'aujourd'hui ont-ils compris pourquoi ? Il écrivait : « Jamais la statistique n'a rien appris ni ne peut rien apprendre sur la nature des phénomènes. » (cité par Bruno Falissard, pédopsychiatre, dans Essais d'épistémologie pour la psychiatrie de demain, Toulouse, Erès, Seuil, 2017). 

Allons plus loin. La majeure partie des publications en neurosciences qui s'appuient sur l'IRM fonctionnelle ne sont pas reproductibles. En 2020, Maxwell Elliott et ses collègues (à lire dans Psychological Science) ont voulu reproduire 90 expériences d'imagerie cérébrale portant sur 66 tâches (langage, récompense, exécution, relation sociale...). Leur conclusion est sans appel : l'IRMf n'est pas un outil fiable. En effet, ces chercheurs n'ont pas pu reproduire la moindre observation sur les 65 participants. Pourtant des observations statistiquement convaincantes avaient fait l'objet de publications scientifiques enthousiastes faisant valoir des corrélations statistiques fiables construites à partir d'un échantillon de 1088 sujets.

Des modèles probabilistes erronés et mal interprétés, des expériences qu'on ne parvient pas à reproduire, une incompréhension de la méthode expérimentale... Bref : la cata ! Le neurobiologiste François Gonon avait raison de crier à la bulle spéculative en novembre 2011 !

Nous ne pouvons que nous inquiéter et souhaiter qu'enfin, les neurosciences soient à la hauteur des attendues de la science ! Rigueur technique et reproductibilité, cohérence épistémologique !, voilà ce que l'on souhaiterait avant qu'il ne soit trop massivement question des applications de ces théories sur l'être humain, sous couvert de (psycho)thérapie neurocognitive-comportementale. Mais voilà, les applications sur l'être humain sont déjà légions, on ne s'inquiète guère de l'absence d'assise sérieuse à ces savoirs à partir desquels on traite des femmes, des hommes et des enfants.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Bienvenue dans Le Club de Mediapart

Tout·e abonné·e à Mediapart dispose d’un blog et peut exercer sa liberté d’expression dans le respect de notre charte de participation.

Les textes ne sont ni validés, ni modérés en amont de leur publication.

Voir notre charte