freud-martha-minna1.jpg

 

La crise de la psychanalyse est  patente Elle est rendue visible d’abord par des publications à grand  tirage qui donnent un bilan extrêmement négatif de son action et des bases sur lesquelles elle s’est construite (comme le « livre noir de la psychanalyse » et l’ouvrage de Michel Onfray « le crépuscule des idoles ». Mais elle est aussi rendue possible par une balkanisation forcenée de ses différents courants qui offrent prise aux attaques d’un courant qui entend remettre la psychiatrie sur des rails positivistes d’une raison calculante qui remplace les incertitudes de l’inconscient et de la pulsion par les méthodes éprouvées de la normalisation des processus  sous contrôle de nos gènes, et de nos humeurs chimiques. Ce processus s’exprime par la volonté des autorités scientifiques complice de ce processus de faire passer la discipline entre les « fourches caudines » de l’évaluation, d’une certaine évaluation.

Les difficultés et les non dits de l’évaluation comme processus «  constituant » (l’évaluation est en effet censée fonder la justification et l’autorité d’une pratique « scientifique »)  sont alors passés sous silence. Ainsi la question de sa validité et de la portée de cette évaluation sont elles négligée au profit d’une conception opérationnelle et calculatoire de l’action qui fait de l’évaluation comme mesure et comme norme une arme de guerre pour une certaine conception de la société, des processus psychiques ou de la santé mentale… C’est précisément l’enjeu politique en cours pour cette question.

L’évaluation de l’INSERM et celles de la Haute Autorité de Santé –HAS s’incluent donc dans une conception plus générale de la « performance » qui s’inscrit totalement dans une vision néolibérale qui fait du marché et de la performance mesurable le hic et nunc des politiques de santé. Celles-ci s’intègrent totalement dans ce qu’il est convenu d’appeler les « bonnes pratiques » de santé et la « médecine par les preuves » (fâcheux anglicisme qu’il est remarquable de voir appliquer malgré le fait que tous les connaisseur du dossier en connaissent les imperfections et le non dit...)

L’évaluation et ses pièges

opecst2010.jpg

Office parlementaire d'évaluation scientifique

Tout d’abord il convient de rappeler une banalité, c’est qu’une évaluation est « par nature » non scientifique et ne contient une dose de vérité qu’au gré de techniques pragmatiques usant d’un rapport avec la pratique et ses résultats plus ou moins opérationnels. Dit autrement, Il n’existe pas d’évaluation « scientifique » proprement dite, mais une « pragmatique » de l’évaluation  C’est ainsi que la recherche d’une évaluation « réaliste » de l’activité scolaire, qui est une des les recherches les plus documentées montre que la dispersion des évaluations a partir d’une grille de notation élaborées de façon réalistement « objective » a montré une profusions de biais « idéologiques » y compris sur des matières qui ne s’y prêtaient pas « a priori » (la « dispersion » des notes attribuée au même exercice est plus importante en philosophie qu’en mathématique, pour autant la dispersion rencontrée dans la notation d’un devoir de mathématique répondant à une série d’item concoctés de façon les plus « objectives » possibles…

Un type d’évaluation a été systématiquement étudié de façon scientifique, en notant la corrélation entre l’évaluation réalisée et ce qu’elle était censée mesurer, et c’est l’évaluation « scolaire » qui se fait principalement sous forme de notation continue et d’examein. Force est de constater la grande dispersion des résultats Toutes les études montrent que cette dispersion est indépendante des disciplines (les évaluations portent sur des copies semblables notées par des correcteurs différents) et du caractére plus ou moins formalisé des items.

L’évaluation est une question de « pouvoir » : « qui évalue ? » est une question décisive du processus lui-même. On peut citer comme témoignage de cet aspect de l’évaluation les différences de fonctionnement entre l’évaluation scolaire en formation initiale (scolaire) et en formation professionnelle. Dans le premier temps, c’est le « professeur », investi de l’autorité dévolue par l’institution, qui note les élèves. Mais dans les  stages de formation professionnelles, la mesure de la qualité de formation est «estimée » non pas par les formateurs (mais bien par les élèves, qui sont censée être en même temps les souscripteurs de l’action de formation) De là découle le caractère stratégique de l’évaluation pour les différentes parties qui s’opposent entre elles afin de déterminer qui sera le maître décidant des modalités de l’évaluation à entreprendre. 

Derrière l’évaluation, quelle est la performance qui est réellement mesurée est également une bonne question à se poser. On se souvient des biais  du « QI »,  le fameux « quotient intelectuel », cette mesure pseudo « scientifique » censée nous donner une approximation suffisante de l’intelligence, et qui permettait surtout de mesure la faculté de se couler « dans le moule » d’apprentissages hyper  conceptualisés pour correspondre à une grille de lecture déterminée, et qui a été exploité pour donner une grille de lecture raciste des différences soit disant existantes entre les intelligences des classes sociales ou des groupes ethniques

La « médecine par la preuve », une technique décriée d’évaluation scientifiques

lobotomie-2.jpg

une bonne pratique : la lobotomie

La méthode préconisée pour évaluer la psychanalyse (et plus généralement les soins psychiques) est dérivée d’une méthode préconisées de façon générale pour l’évaluation des pratiques médicale et la définition de « bonnes pratiques » mise au point au Canada sous le nom de « Médecine basée sur les preuves » et en version originale Evidence based Médecine (médecine basée sur des faits) L’anglicisme contenu dans la traduction « approximative » du terme fait qu’on utilise le plus souvent les initiales anglaises de cette pratiques (a savoir EBM) C’est cette convention que nous utiliserons dorénavant.

L’idée sous-jacente à l’EBM (Evidence Based Medecine), née dans les années 1970 au Canada, est caractérisée par l’utilisation consciencieuse, explicite et judicieuse de la meilleure preuve du moment pour la prise de décision liée à la prise en charge des patients On ne peut que souscrire à cette définition qui fait apparaître l’EBM comme une aide à la décision. Il n’est pas question, en effet, de remettre en cause la notion générale que la pratique médicale doit être fondée sur la meilleure preuve. A supposer que celle ci existe ! Dans cet esprit, l’EBM affiche un dispositif comportant l’évaluation critique de la littérature et une approche quantitative rigoureuse du fait médical.

Ce souci de répondre aux critères de rigueur scientifique ayant pour modèle les disciplines de la mesure (mathématiques, physique, statistique) n’est pas nouveau. Déjà Cabanis, médecin et philosophe, partageait la conviction, au XIXe siècle, que la médecine aurait un jour le même statut épistémologique que la physique Laplacienne.

Cependant, c’est dans les éléments structurant le dispositif de l’EBM actuel que surgit la controverse. En effet, l’un des crédos de l’EBM est la prééminence accordée aux essais « randomisés ». Or l’examen des présupposés des essais randomisés montre que leur pouvoir épistémique est constamment surévalué par rapport aux études de cas. Restreindre l’EBM aux essais randomisés et aux méta-analyses de la littérature apparaît comme un réductionnisme dogmatique, dans un contexte d’incertitude auquel l’EBM prétend remédier. Ce n’est donc pas l’EBM en soi qui est en cause mais l’orientation limitée qu’on lui assigne et qui s’apparente à une forme d’intégrisme prônant l’objectivation à tout prix.

De surcroît, les modèles de prise de décision fondés sur une approche quantitative ont montré leur limite, en particulier en économie. Les sources d’inspiration des théories de la décision, comme la théorie des jeux, cèdent la place, actuellement, à d’autres conceptions faisant intervenir la mémoire des cas passés, qui apparaît mieux adaptée au contexte médical, par une sollicitation des expériences individuelle et communautaire.

En conclusion, une approche « de la meilleure preuve » fondée exclusivement sur le quantitatif trouve ses limites à la fois pratiques et épistémologiques. Car la prise en charge d’un patient individuel, notamment en psychiatrie, implique désormais d’intégrer une dimension du soin excédant totalement la notion de traitement. Sans pour autant négliger les apports de l’évaluation objectivante, il apparaît essentiel de redonner une juste place à l’expérience acquise et à l’exercice « du bon bout de la raison »

La méthode d’évaluation scientifique conduit ainsi a se méfier des biais toujours possible, en particulier quand l’évaluation est menée uniquement à charge dans un contexte marquée par l’affrontement entre des conceptions parfaitement contradictoire de la santé, de la médecine et de ce qui relève précisément de la « science »…. Or si une « évaluation » peut (éventuellement) mesurer l’adéquation entre une de ces conceptions et les méthodes utilisées, elle ne peut en aucun cas permettre de trancher entre ces diverses conceptions, sauf à se livrer a une véritable imposture intellectuelle.  Le problème de l’évaluation « scientifique » de la science est bien connue : autant on peut évaluer facilement (et rationnellement) ce qui reléve de la science « déjà faite » autant il est impossible d’évaluer une « science en train de se faire » : si on avait utilisé les concepts sous jacents à la « Médecine par la preuve » on aurait repoussé l’explication pasteurienne et validé la « génération spontanée » comme faisant partie des « bonnes pratiques » de l’époque. On peut également réfléchir a la première tentative d’évaluer « rationnellement » une pratique médicale autour de la question du « mesmérisme » et tous les présupposés politiques qui contenaient autant de « biais » nuisant à la scientificité de l’évaluation 

Les ruses de la rationalité

Yves-Tanguy_5_original.jpg

Yves Tangy ; vers une nouvelle rationalité

La multiplication des alertes et des controverses publiques liées à la société du risque, on voit se généraliser la référence à la rationalité scientifique, conçue comme une rationalité d’ordre supérieur, affranchie des jeux d’intérêts et de représentations dans lesquels seraient pris la plupart des acteurs, qu’il s’agisse d’industriels, de politiques, de journalistes ou de membres d’associations. Se référer à la science c’est très souvent fustiger des conceptions irrationnelles, conçues a priori comme constitutives du sens commun avec lequel la science a rompu. Le rationalisme au sens étroit suscite en retour des critiques radicales, qui prennent parfois l’allure de procès antiscience, mais qui touchent de temps en temps quelques points sensibles.

Pour le rationaliste convaincu, il n’y a qu’une seule définition de la science : il la définit comme la mise en œuvre systématique par des scientifiques reconnus et compétents, d’un raisonnement soumis aux canons de la logique universelle et d’une méthode unique d’établissement de la preuve, la méthode expérimentale en laboratoire, inventée avec l’idée de Science exacte, car produisant des faits parfaitement contrôlables et reproductibles. Sur la base de la publication de résultats dans des revues fondées sur le système d’évaluation par les pairs anonymes (« peer review »), de telles expériences, menées selon des protocoles standardisés et validés par la communauté scientifique internationale, il est possible, ou non, d’établir la preuve de l’existence de liens de causalité, par exemple entre une source de danger supposée et une forme de pathologie. Tant qu’une majorité d’études valides ne convergent pas vers des résultats comparables, un risque ne serait pas avéré mais seulement supposé, donnant lieu, pour des raisons politiques, ou plutôt politico-médiatiques, à différentes mesures de précaution.

A priori, cela ne pose pas de problème : des experts sont mandatés pour examiner ce qui  ressort des études et, dès lors que leur expertise est indépendante et transparente, il y a moyen d’établir la série des faits scientifiquement certains, celle des faits encore incertains, et ceux qui relèvent de conjectures interprétatives ou de doctrines étrangères à la science. Quel est donc le problème avec la science ? Le problème surgit lorsque cette conception univoque de la preuve scientifique s’enracine dans un rationalisme exclusif, qui entend exclure a priori du champ des argumentations légitimes du point de vue scientifique, toutes les formes d’enquêtes et de recoupements, ainsi que toutes les formes de questions et d’hypothèses développées en monde ouvert et souvent formulées pour compenser l’absence d’explication scientifique au sens étroit, tout n’ayant pas pu être éprouvé de manière fiable et définitive en laboratoire.

 Car la science c’est évidemment aussi le doute, c'est-à-dire plus concrètement des travaux et des études qui ne vont pas toujours dans le même sens, qui divergent quant aux données initiales, aux méthodes ou aux interprétations – et le cas est patent lorsque les objets en cause sont des objets placés dans les zones d’influence de plusieurs disciplines.

Les querelles que suscite le rationalisme au sens étroit portent essentiellement sur trois points dont la prise en compte a pour vertu de fournir une conception plus nuancée et plus complexe de la science : l’enquête statistique qui opère dans le monde et qui repose sur la définition de populations, de catégories, d’outils de codage dont dépend la saisie de régularités dans le monde – c’est le cas notamment de l’enquête épidémiologique, laquelle pose constamment le problème des points de comparaison et de ce que signifie par exemple la comparaison avec une population générale considérée comme propice à une distribution aléatoire – l’hypothèse que toute une population est affectée est généralement envisagée en terme d’exposition collective qui engendre un excès de pathologie (voir la radioactivité ou la pollution atmosphérique par exemple). Le raisonnement statistique porte à évaluer les écarts entre les cas attendus et les cas observés, sans pour autant pouvoir assigner de causalité lorsque des « pics » ou des « clusters » sont mesurés.

La question du territoire de l’enquête et celle des conditions de comparabilité des enquêtes menées sur des territoires différents sont des questions sévères, qui suscitent souvent la controverse. Mais, outre les questions d’espaces, l’enquête est également tributaire de la durée. N’a-t-on pas trop tardé à enregistrer des phénomènes en laissant se reconfigurer une population (démographie naturelle, mobilité, exode, migration, etc.) ? Lorsque des registres et des observatoires sont mis en place, il est possible de voir monter des indicateurs statistiques dans la durée alors même que les travaux en laboratoire n’ont rien établi. De fait, l’enquête en monde ouvert est souvent un levier pour la relance des expérimentations en laboratoire. Sans entrer dans des considérations épistémologiques profondes, indiquons que le type de preuve qui émerge de ces enquêtes peut porter le nom de preuve par isomorphisme, dans la mesure où elle repose sur la convergence de séries d’éléments ayant des propriétés communes, permettant des rapprochements continûment confortés par de nouvelles enquêtes…

Une autre forme de preuve est ignorée par le rationalisme étroit, bien qu’elle ait cours dans de nombreuses investigations : le recoupement lié aux évidences partagées dans le monde sensible. La science moderne s’est construite contre l’expérience sensible, déconstruite comme illusion. Du coup, la référence aux expériences vécues, aux témoignages et aux indices rapportés par les personnes et les groupes au contact des choses, même lorsqu’ils font masse, est déclassée comme subjective et biaisée. Par exemple le fait que des millions de personnes témoignent de maux divers sera toujours écarté comme illusoire voire manipulatoire, alors que pour de nombreux acteurs cela marquera l’évidence des recoupements. Pour le rationaliste, porté à se méfier de toute forme d’expression, le biais est posé avant même l’évaluation sérieuse et raisonnée de ce que rapportent les dites expériences.  Un des points d’appui fragile du rationalisme vient ici du fait que même les scientifiques les plus rationalistes sont dans le monde et que pour bien raisonner ils doivent partager un certain nombre de certitudes communes, lesquelles n’ont pas d’autre fondement que … les recoupements qui font masse. On peut toujours essayer de monter un plan d’expérience en laboratoire pour vérifier que l’on perçoit bien les mêmes objets, qu’ils n’ont pas changé, et transposer tous les points de recoupement nécessaires, dans un espace de calcul sous contrôle, mais dans ce cas la science doit mettre en doute, et entre parenthèses, tellement d’évidences partagées que les chances pour produire en sortir des faits pertinents sont faibles. Ainsi tout scientifique raisonnable doit reconnaître que le premier mode de la preuve est le surgissement, c’est-à-dire la mise en présence radicale avec le phénomène ou l’objet : et s’il ne croit pas au danger de ce bain d’acide, plongez-le donc dedans !

- Le troisième point de friction, concerne la distinction entre ce qui est calculable et ce qui est incalculable. Car la preuve expérimentale suppose de produire en laboratoire un modèle réduit de la « réalité », laquelle est étudiée à partir de la mise en rapport artificielle d’entités chargées de représenter le monde réel tout en ayant pour propriété d’être rendues calculables – à un epsilon près, car les intervalles de confiance et autres degrés de précision dans les mesures sont ici décisifs. Or avec l’autonomisation de plus en plus forte des laboratoires et de leurs métrologies, un fossé considérable s’est constitué au fil du temps entre ce qui est sous le contrôle des instruments de calcul et ce qui a lieu dans le monde, lequel monde se reconfigure sans attendre d’être fixé dans un espace de calcul. Les tentatives pour intégrer la complexité dans les dispositifs se succèdent depuis des décennies. Elles sont marquées par l’idée de non linéarité

: quelque chose s’est produit qui ne permet plus de revenir aux conditions initiales et on est condamné pour comprendre cette émergence à faire des hypothèses à rebours sur des conditions qui n’existent plus … la production de ces modèles en dehors de beaux dispositifs expressifs, reste sujette à caution. En tout état de cause, lorsqu’ils marchent ils reconduisent en sortie le partage entre axiomatique autonome (calculs valides dans le modèle ou l’espace de calcul indépendamment de ce qui a cours dans le monde) et expérience directe de l’interaction et de l’épaisseur empirique des phénomènes. Les évolutions technologiques permettent de faire passer dans le calcul un nombre accru d’entités et de relations, via notamment la simulation, mais d’une part la simulation crée des mondes autonomes qui n’ont plus aucun compte à rendre au monde réel, même s’ils influencent bon nombre d’éléments de ce monde, et d’autre part, le mode d’évaluation scientifique des preuves reste soumis à un espace de raisonnement intangible déjà prévu dans l’axiomatique utilisée : pour engendrer des preuves le monde et tout ce qui y vit doivent se plier au modèle, et non l’inverse – décrié sous le terme d’empirisme. Quant à l’élargissement du modèle par l’ajout d’hypothèses éloignées du cœur axiomatique, il est généralement dénoncé comme mélange des genres, dérive analogique ou charlatanisme. Et c’est un des points les plus vifs des controverses, qui concerne alors le partage entre modèle, théorie et doctrine

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.

Tous les commentaires

et ceux qui sont en désaccord avec la psychanalyse n'y vont pas ...

J'en connais plein !