Serions-nous encore capables de découvrir l’Amérique aujourd’hui?

Les annonces du gouvernement sur la future LPPR laissent présager plus de financements de la recherche par des projets, des contrats à durée limitée, un système « inégalitaire », mais restent floues et inquiétantes sur… l'essentiel, tel que nous l’enseigne l'histoire des Sciences.

La recherche financée sur projets a-t-elle un sens ?

Un peu partout dans le monde, la recherche est de plus en plus financée sur des projets et les chercheurs sont rémunérés par des contrats limités dans le temps. La France n’échappe pas à cette tendance : les budgets récurrents y sont en baisse constante, le nombre de chercheurs ou d’enseignants-chercheurs aussi (et ce alors que la charge de travail sur ces derniers est en constante hausse, à cause de l’augmentation du nombre d’étudiants). Dans le même temps il est « proposé » aux chercheurs d’aller chercher les financements dont ils ont besoin en montant des « projets » financés par des institutions, comme ceux de l’ANR et de l’ERC (et les universités, dites « autonomes », n’ont pas d’autre choix que de se plier aux injonctions du gouvernement –notamment celles de fusionner entre elles– si elles veulent récupérer une part des financements Idex et Labex). Les effets négatifs de cette politique sont régulièrement signalés depuis longtemps par les chercheurs, mais cela semble n’avoir pratiquement pas d’incidence sur les décideurs politiques. Le gouvernement français actuel persiste dans cette direction, en annonçant une réforme dans laquelle il est question d’augmenter les financements sur contrats, les contrats à durée limitée, la compétition. Mais les demandes les plus fortement exprimées par la communauté scientifique, à savoir rétablir les financements récurrents et les emplois stables à leur niveau d’il y a dix ans, n’ont pas reçu de réponse claire jusqu’à présent. Sujet d’inquiétude supplémentaire, l’avenir d’instituts nationaux tels que le CNRS est un sujet passé sous silence par le gouvernement.

Bien sûr beaucoup de projets de recherche nécessitent des financements spécifiques, lorsqu’il s’agit d’expériences longues et complexes visant à confirmer et consolider des théories déjà étayées, ou bien lorsqu’il s’agit d’applications et de développements. Mais, en ce qui concerne la recherche fondamentale, l’idée de la « piloter » en distribuant les moyens en fonction des projets présentés n’est-elle pas une absurdité ?

Comment découvrir l’Amérique ?

Imaginons un instant que nos connaissances scientifiques et géographiques et nos moyens technologiques soient ceux de l’Europe du XVème siècle, mais que la recherche soit « managée » avec les méthodes actuelles. Un chercheur souhaite explorer l’Océan Atlantique à la recherche d’une nouvelle route maritime pour la Chine. L’expédition est coûteuse et il adresse une demande à une agence de financement, comme l’ERC ou l’ANR. Notre Christophe Colomb du XXIème siècle remplit le formulaire en 50 pages (après avoir lu le document administratif en 50 ou 100 pages décrivant l’appel à projets et expliquant comment remplir la demande). Il justifie la faisabilité du projet par le fait que la circonférence de la terre est de 30 000 km. La demande est examinée par des experts scientifiques nommés par l’agence mais, là, pas de chance : la demande est retoquée, car les experts savent bien depuis Ératosthène que la circonférence de la terre est en fait de 40 000 km, ce qui rallonge considérablement le voyage. Notre chercheur ne pourra pas découvrir l’Amérique (certes, ça ne serait pas plus mal pour les amérindiens) : l’erreur ne vient pas des experts, qui ont fait correctement leur travail, mais du principe qui consiste à ne financer que les chercheurs qui peuvent prouver qu’ils vont découvrir quelque chose.

En réalité tout s’est passé ainsi… ou presque il y a plus de cinq siècles : le vrai Christophe Colomb avait demandé une flotte et un équipage pour son expédition au roi Jean II du Portugal en argumentant que la circonférence de la terre était de 30 000 km (et il était probablement de bonne foi). Le roi consulta un groupe d’experts qui émit un avis négatif pour les raisons tout à fait correctes expliquées plus haut et la demande fut refusée. Christophe Colomb obtint finalement les moyens auprès de la reine Isabelle de Castille, non sans difficultés. On connaît la suite.

Cet épisode bien connu résume un fait universel dans la recherche fondamentale : les plus grandes découvertes sont celles qui sont totalement inattendues et même parfois en contradiction avec les connaissances les mieux étayées. Elles sont aussi souvent le résultat d’une prise de risque insensée. Cette prise de risque était quasiment suicidaire dans le cas de Christophe Colomb. Aujourd’hui on n’en demande pas tant aux chercheurs, toutefois le fait d’explorer pendant des années une terra incognita du savoir, en étant poussé par la simple curiosité et des intuitions difficiles à partager et en traversant des périodes de doute, est une prise de risque intellectuelle que des contrats de recherche précaires et des financements sur projets interdisent.

Cette caractéristique de la recherche fondamentale va de pair avec le fait que, plus une découverte est révolutionnaire, plus il faut de temps pour qu’elle soit acceptée par la communauté scientifique. Pour beaucoup, c’est une évidence, mais parfois on en vient à douter que c’est le cas pour tout le monde. C’est pourquoi il n’est pas inutile de prendre une discipline au hasard, par exemple dans ce qui suit la physique fondamentale, et de passer en revue quelques-uns de ses plus grands épisodes depuis un siècle et demi.

Quelques exemples de la physique fondamentale

Les deux plus grandes théories physiques mises au point à la fin du XIXème siècle sont probablement l’électromagnétisme, œuvre achevée par Michael Faraday et James Clerk Maxwell et la physique statistique, qui repose en très grande partie sur l’œuvre de Ludwig Boltzmann. Sans cette théorie, la physique du XXème siècle telle que nous la connaissons n’aurait jamais vu le jour. Pourtant la théorie de Boltzmann rencontra de nombreuses résistances et celui-ci eut les plus grandes difficultés à la faire accepter. Parmi les chercheurs qui furent réticents figure Max Planck, au départ hostile à l’hypothèse atomique à la base de la théorie de Boltzmann. Mais Planck changea d’avis au bout de plusieurs années et, mieux, il utilisa cette théorie pour étudier le problème du rayonnement du corps noir. Son travail aboutit en 1900 à un des articles les plus importants de l’histoire des Sciences, rien de moins que l’acte de naissance de la physique quantique.

Et pourtant, si à l’époque on avait demandé à Planck de s’auto-évaluer et de dire si l’hypothèse de quantification des états d’énergie qu’il avait introduite dans son article aurait un impact, il aurait été très prudent, tant il considérait que cette hypothèse n’était qu’un artifice mathématique. Il fallut toute l’audace et la clairvoyance d’Albert Einstein, cinq ans plus tard pour faire le lien avec l’effet photo-électrique et prendre cette hypothèse au sérieux : la deuxième étape historique vers la mécanique quantique était franchie.

Vingt ans plus tard, un groupe de jeunes physiciens bâtirent en quelques anni mirabiles l’édifice de la mécanique quantique. Ces Bohr, de Broglie, Heisenberg, Schrödinger, Pauli, Dirac (et d’autres, moins connus) jouissaient d’une liberté académique qu’on a rarement retrouvée dans l’histoire pour une bien triste raison, à savoir que beaucoup de leurs aînés avaient été décimés par la première guerre mondiale.

Un peu plus tard, en 1933, en cherchant à interpréter la radioactivité bêta, Enrico Fermi proposa l’hypothèse de l’existence d’une force, qui serait à l’origine de ce phénomène. Mais son article fut refusé par Nature (avec le commentaire « too remote from physical reality to be of interest to readers ») et Fermi dut le publier dans deux revues beaucoup moins connues. Fermi, qui était conscient de l’importance de son travail, en fut très affecté et cessa de travailler en physique théorique pour se diriger vers la physique expérimentale (où il réussit assez bien puisqu’il obtint le prix Nobel pour ses travaux expérimentaux). L’idée de Fermi fut heureusement reprise et développée par d’autres physiciens : la force proposée par Fermi, au comportement étrange et très différent des autres forces connues, est aujourd’hui appelée force faible. Elle est l’une des quatre forces fondamentales (aux côtés des forces gravitationnelles, électromagnétiques et de la force forte qui assure la cohésion des noyaux des atomes) et son étude a joué un rôle crucial dans la construction du modèle standard unifiant toutes les forces sauf la gravitation.

Parmi les découvertes plus récentes, celles qui sont peut-être les plus importantes sont l’existence de la matière noire et l’énergie noire. Ces découvertes sont à nouveau totalement inattendues et viennent bousculer le bel édifice théorique et forcer les physiciens à le remettre en question.

La « matière noire » (comme l’énergie noire) est en vérité très mal nommée, puisqu’elle est totalement transparente. De ce fait, elle n’est décelable qu’indirectement, à cause de ses effets gravitationnels sur le mouvement des étoiles. Les premiers indices de son existence furent découverts par Fritz Zwicky en 1933 (et indépendamment par Sinclair Smith en 1936), mais cela ne suscita pas un grand intérêt dans la communauté scientifique, d’une part, parce que celle-ci était occupée par d’autres questions et, d’autre part, parce que les mesures étaient peu précises. Il fallut attendre les années 1960 à 1970 avec les travaux de Vera Rubin pour qu’on dispose d’un nombre suffisant de mesures précises et qu’on puisse ainsi conclure à l’existence de cette mystérieuse matière, laquelle a, depuis, fait l’objet de multiples recoupements.

L’histoire de Rubin est édifiante : parce qu’elle était une femme, on lui avait signifié qu’elle avait intérêt à se tenir à distance de la science. Ainsi son professeur de physique, en apprenant qu'elle avait reçu une bourse d'études universitaires, lui avait dit : « « As long as you stay away from science, you should do OK » ». Elle avait donc retenu la « leçon » et évita de travailler dans le sujet à mode à l’époque en astronomie (l’étude des quasars et du mouvement des galaxies) en s’orientant vers un sujet qui n’intéressait personne : « Lots of people were working on the centers of the galaxy, but I got curious about the outsides […] I wanted to know how galaxies ended, which is not a question anyone ever talked about ». Et c’est en travaillant sur un sujet « dénué d’intérêt » pour la majorité de ses collègues qu’elle découvrit la matière noire.

On pourrait allonger indéfiniment la liste, en se concentrant sur un domaine plus pointu de la physique ou en rappelant que la Relativité d’Einstein et la Mécanique Quantique rencontrèrent de très fortes résistance (en particulier en France), ou bien en explorant d’autres disciplines que la physique, comme, par exemple, la biologie et la médecine (voir ce billet de Sylvestre Huet) ou en passant en revue les travaux des futurs prix Nobel qui furent rejetés ou qui rencontrèrent des difficultés à être acceptés. Tous ces exemples confirment à quel point, lorsque la recherche réalise une avancée réelle et profonde, elle est imprévisible et il faut parfois des années avant qu’elle soit acceptée par les scientifiques et qu’on réalise toute sa portée.

A contrario, tout cela montre l’extrême pauvreté et la terrible myopie des indicateurs bibliométriques, fondés sur une mesure du « bruit » généré par les publications des chercheurs et qui servent d’ingrédients de base aux classements internationaux.

C’est pourquoi il est assez désespérant de voir que le discours de certains hauts responsables français (mais pas seulement) n’a pas pas évolué depuis quinze ans et garde toujours comme horizon étriqué celui des classements internationaux et une obsession illusoire d’évaluer et de « piloter » la recherche.

Il est aussi très inquiétant d’entendre ces responsables prôner une politique de compétition, révélant un parti-pris idéologique transposant à la recherche et à l’enseignement supérieur des recettes inspirées du modèle économique libéral anglo-saxon. Sans même entrer dans une discussion sur la valeur de ce modèle sur le plan économique et social, le fait de le transposer à la recherche et à l’enseignement supérieur sans se donner la peine de comprendre leurs spécificités dénote une incroyable légèreté et donne l’impression que ces dirigeants ont simplement cessé de réfléchir.

De l’autre côté de la Manche

Puisque nos dirigeants semblent être fascinés par une certaine vision du modèle anglo-saxon, il n’est pas inutile de regarder ce qui se passe au Royaume-Uni.

Une enquête réalisée auprès des chercheurs britanniques : What researchers think about the culture they work in vient, sans grande surprise hélas, confirmer les effets délétères d’une politique de la recherche dans laquelle l’évaluation est régulièrement utilisée pour allouer les moyens. Parmi les conclusions de cette enquête, on note que :
– 84 % des chercheurs sont fiers de travailler dans la communauté de la recherche, mais seulement 29 % se sentent en sécurité pour poursuivre une carrière de chercheur.
– 78% des chercheurs pensent que les niveaux élevés de concurrence ont créé des conditions peu aimables et agressives.
– Un peu plus de la moitié des chercheurs (53 %) ont cherché, ou ont voulu chercher, une aide professionnelle pour la dépression ou l'anxiété.
– La créativité est l'une des caractéristiques les plus souvent citées d'une culture de recherche idéale, mais 75% des chercheurs pensent qu'elle est actuellement étouffée.

Le point de vue de Dominic Cummings

Aussi étonnant que cela puisse paraître, ce ressenti est en grande partie corroboré par un des conservateurs les plus influents aujourd’hui en Grande-Bretagne, à savoir le conseiller de Boris Johnson, Dominic Cummings. Ce dernier est un des personnages les plus controversés, ne reculant devant aucune manœuvre pour parvenir à ses fins et pour obtenir le Brexit, traité de « Machiavel moderne », de « psychopathe », et, en même temps, un stratège redoutable, sans qui Boris Johnson n’aurait sans doute jamais réussi sa récente partie de poker pour emporter le parlement. Ce qui nous intéresse ici est le fait qu’il est aussi un des très rares politiciens à réfléchir réellement sur la recherche, ses applications et sa valorisation industrielle et sur les solutions pour améliorer son fonctionnemen: bien que le personnage soit sulfureux, pour qui s’intéresse à la recherche, son blog mérite d’être lu.

Il en tire un diagnostic impitoyable sur le parti au pouvoir : « Le parti conservateur n'a aujourd'hui pratiquement plus aucun lien intellectuel avec les débats cruciaux sur l'écosystème de la science, la productivité, les universités, le financement, les start-ups, etc. ». Il fait le constat d’une baisse mondiale de la productivité de la recherche, situation face à laquelle « Les conservateurs en sont réduits à des slogans sur la "liberté", la "déréglementation", etc., qui n'apportent aucune réponse à notre problème de productivité » (voir la conclusion de ce billet).

Bien que résolument libéral, pro Brexit et europhobe, Cummings, au terme d’une interview du mathématicien Alain Connes (pages 29 à 31), arrive à la conclusion que : « Les marchés concurrentiels de la tradition anglo-américaine auraient encore plus de succès si leurs institutions politiques finançaient les mathématiques et les sciences sur le modèle des institutions soviétiques et françaises » (page 32).

Dans le même texte, Cummings retrace les origines des révolutions technologiques de la Silicon Valley (le PC, Apple, internet) et analyse les raisons du succès des entreprises de la Silicon Valley (et aussi certaines occasions manquées). La révolution numérique que nous connaissons n’aurait jamais vu le jour sans les projets de recherche en informatique ARPA (Advanced Research Project Agencies), initié par Joseph Lickider à partir de 1963 et parallèlement au projet Apollo, et le projet PARC (Palo Alto Research Center), démarré en 1970 et financé par Xerox. Cummings détaille l’extraordinaire fécondité et la prodigieuse rentabilité de ces projets dont les coûts furent dérisoires par rapport à bien des projets scientifiques et, ce, grâce à une totale liberté laissée aux chercheurs : « people not projects was one of the core principles ». Mais Xerox, paralysé par une bureaucratie sclérosée, loupa l’occasion de tirer profit des formidables découvertes faites dans ses laboratoires, dont les fruits furent récoltés par Steve Jobs, Bill Gates et l’industrie d’internet.

Et Cummings de proposer, parmi ses conclusions : « Il faudrait modifier radicalement la structure et le degré de financement de la science au Royaume-Uni [...], notamment en finançant des institutions de type ARPA/JASON qui financent des projets de type PARC dans des domaines tels que l'intelligence artificielle, la robotique, l'énergie, les neurosciences, la génétique, les technologies cognitives [...] et, surtout, en finançant des idées qui semblent aujourd'hui "folles", tout comme l'internet et les ordinateurs quantiques semblaient "fous" avant d'être généralisés. Nous devrions créer de nouvelles institutions de type CNRS ou faire en sorte que les excellents centres existants expérimentent le modèle de financement du CNRS (basé sur l'idée de Connes ci-dessus).» (pages 39-40).

Une autre observation sensée de Cummings est que les petites unités, structurées en réseaux, sont bien plus efficaces que les très grosses structures, dans lesquelles la bureaucratie et le pouvoir mandarinale jouent un rôle de frein et absorbent une forte partie des moyens au détriment des jeunes chercheurs. Il est dommage qu’en France on ait pris la direction opposée depuis plus de dix ans, en forçant les universités à fusionner en méga universités.

Bien entendu, Cummings est une personnalité ultra libérale et particulièrement élitiste. Il centre ses investigations sur quelques chercheurs au sommet de l’échelle, dont les points de vue ne sont pas forcément représentatifs. De plus son analyse ne couvre pas les Sciences expérimentales. Néanmoins ses conclusions recoupent le constat partagé par une très large partie des chercheurs et évoqué au début de cet article, à savoir que :

En accordant aux jeunes chercheurs suffisamment de temps et de tranquillité pour « mûrir » et en les libérant de la pression imposée par des contrats courts ou précaires,

en leur fichant la paix avec les évaluations et avec la nécessité constante de se justifier sur leurs projets,

et, tout cela, en assumant le fait de financer fatalement des chercheurs peu productifs (statistiquement, il y en aura toujours !),

alors la recherche peut être réellement imprévisible et donc incroyablement plus rentable et créative que dans la plupart des systèmes en vigueur aujourd’hui (et l’on peut éviter de gâcher bien des talents chez les jeunes).

En définitive, tout en étant un libéral pur et dur, Cummings explique que les règles de compétition entre entreprises privées, la loi du marché doivent rester strictement dans le domaine de l’industrie et du commerce et que c’est une erreur de vouloir appliquer ces lois au monde de la recherche. Et bien qu’il soit un farouche partisan du Brexit, il recommande à ses compatriotes de s’inspirer du CNRS !

L’auteur tient à remercier Philip Boalch pour avoir attiré son attention sur Dominic Cummings.

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.