Crise de la science économique ? (2/2)

Par Gaël Giraud, économiste en chef de l’Agence Française de Développement (AFD), directeur de la Chaire Energie et Prospérité, et directeur de recherche au CNRS.

On désigne par « économie néo-classique » un courant dominant de l’analyse économique qui, puisant ses origines dans le tournant de la décennie 1870, a envahi le champ académique de l’économie à l’aube du XXème siècle jusqu’à la crise de 1929, puis fut refoulé aux oubliettes des erreurs de l’histoire durant les années trente. Ses principaux ténors ayant négocié un compromis avec la doctrine keynésienne qui leur permit de retrouver une place dans l’université nord-américaine à la faveur de l’après-guerre, cette école de pensée a reconquis une position de monopole au cours des années 1970 en évinçant ses concurrents keynésiens et sraffaiens à partir d’une lecture largement erronée du double choc pétrolier. Position de monopole qui, par le refus de ses représentants d’admettre que les crises multiples que nous connaissons depuis quatre décennies ---chômage de masse, inégalités, krachs financiers et, maintenant, paralysie déflationniste, sous-investissement dans la transition écologique, etc.--- remettent en cause leur analyse, plonge à son tour la « science économique » contemporaine dans une crise profonde.

Dans un article précédent, j’ai évoqué les difficultés que rencontrent les modèles néo-classiques de contemporains dès lors qu’il s’agit d’aborder des questions pourtant aussi fondamentales que le chômage, les ressources naturelles, la monnaie… Il en ressort que l‘économie néo-classique, qui occupe toujours l’écrasante majorité du terrain de l’analyse économique contemporaine, est aujourd’hui incapable de fournir des recommandations pertinentes, sur la base de ses propres modèles, pour le monde réel. Un monde peuplé de salariés à la recherche d’un boulot décent, soumis aux impacts déjà visibles du dérèglement climatique, à la raréfaction des ressources énergétiques, à l’assèchement du crédit bancaire, aux dévastations provoquées par les krachs financiers… et qui ne peut plus se satisfaire de l’antienne usuelle : souquez ferme, ça ira mieux demain.

Dans cette seconde partie, j’aborde les questions décisives du traitement du temps et de la complexité. Point n’est besoin d’avoir longuement fréquenté Heidegger ou Prigogine pour comprendre que ces deux aspects sont décisifs. D’une manière ou d’une autre, ils sont irrigué l’ensemble des sciences contemporaines à la faveur des révolutions épistémologiques du XXème siècle. Toutes, sauf une : l’économie néo-classique.

5.  Le temps

Il reste encore au moins deux aspects des modèles néo-classiques dont il est impossible de passer sous silence la nécessaire remise en chantier.

Le premier concerne l’approche en termes d’équilibre. La quasi-totalité de ces modèles se contentent de décrire une situation d’équilibre ---celle où le commissaire priseur est parvenu à trouver des prix et des salaires qui égalisent simultanément l’offre et la demande agrégées sur tous les marchés, aujourd’hui, demain, et… jusqu’à la fin de temps. En effet, la quasi-totalité de ces modèles supposent que tous les agents économiques entretiennent ce que les économistes ont baptisé des “anticipations rationnelles” mais qui désigne, en fait, l’aptitude à prédire l’avenir ! Pour être plus précis : toutes les variables de l’avenir sont supposées suivre des lois probabilistes connues de chacun, et chaque agent est supposé maximiser la mesure de son “bonheur” (ou son profit) en anticipant exactement la moyenne (l’espérance probabiliste) de ces variables aléatoires. Concrètement, dans ces modèles, tout se passe comme si le cours du baril était déterminé au moyen d’une loterie dont tout le monde connaît la loi, de sorte que chacun est en mesure de prévoir le cours moyen du baril jour après jour, au cours des dix prochaines décennies, et de prendre des décisions d’investissement optimales en conséquence.

Pourquoi les économistes néo-classiques adoptent-ils une hypothèse aussi manifestement surréaliste ? Les justifications varient d’un économiste à l’autre. La plus sincère est probablement qu’ils ne savent pas comment faire autrement1. Une version plus sophistiquée en appelle au principe d’incertitude d’Heisenberg : la parole publique des économistes serait performative, au sens où elle ferait advenir ce qu’elle annonce. Du coup, si un économiste s’avisait de raisonner avec un modèle où les agents économiques font des erreurs d’anticipation, il s’exposerait à des déconvenues car, en rendant ses conclusions, il modèlerait les anticipations de ses auditeurs à partir de conclusions qui ne sont correctes qu’à condition que lesdits auditeurs se trompent. Contradiction2.

Cette bizarrerie du mode de représentation du futur dans ces modèles économiques ne serait qu’un exotisme de plus si elle n’avait des conséquences décisives. La première est sans doute qu’il est souvent extrêmement difficile de faire une distinction rigoureuse entre un flux et un stock dans ces modèles d’équilibre3. Il est vrai que dans le monde statique (sans monnaie, etc.) depuis toujours accroché à un éternel point fixe (localement stable, de préférence) où se placent d’emblée ces modèles, sans distinction essentielle entre le passé, le passé et l’avenir, il n’y a plus de contradiction à traiter des flux comme des stocks.

Une autre conséquence est connue sous le nom de “théorème d’équivalence ricardienne4. Voici ce que dit ce “théorème” : tout accroissement de dépense publique est inutile car il serait immédiatement compensé par un surcroît correspondant d’épargne de la part des contribuables qui auront parfaitement anticipé la hausse d’impôt (son montant et sa date) inévitable destinée à financer l’augmentation du déficit public. En clair : toutes les fois que l’Etat dépense un euro, les ménages renoncent à dépenser exactement un euro pour pouvoir s’acquitter plus tard, à une date qu’ils ont devinée, de la hausse d’impôt (d’exactement un euro) qui ne manquera pas d’advenir. Conclusion ? L’euro injecté par l’Etat-cigale est aussitôt retiré du circuit par les fourmis prévoyantes. Cette prétendue corrélation entre dépense publique et épargne est évidemment invalidée empiriquement. Mais nous avons déjà vu que la falsification empirique, même la plus massive, n’est pas un obstacle pour les théories néo-classiques. La conséquence politique ? Un discrédit jeté sur la dépense publique (et qui est aujourd’hui  bien ancré jusque dans la tête de certains de nos hauts fonctionnaires), l’idée que toute dépense est un pur coût (puisqu’elle est sans effet sur l’économie réelle) et qu’il convient de borner supérieurement a priori tout déficit public et toute dette publique. Bien entendu, remettre en cause une telle idée au motif que la théorie qui la sous-tend est indigne d’un collégien conduirait à reconnaître, par exemple, le caractère arbitraire des 3% de déficit et des 60% de dette publique maximale autorisés par les Traités européens.

Elaborer une économie véritablement “dynamique” (i.e., exhibant des dynamiques hors équilibre) permettrait aussi de réintroduire en économie la possibilité des krachs. En effet, dans le monde néo-classique d’eau douce comme d’eau salée, un cataclysme comme celui de 2007-2009 est tout bonnement impossible ---et c’est la raison pour laquelle, même lorsque l’existence de bulles spéculatives est admise (voir plus haut), elle ne conduit pas, le plus souvent, à une analyse des crises que de telles bulles engendrent. En effet, dans un tel monde, si la bulle des dérivés de crédit subprime avait dû crever un jour (ce qui est advenu en 2007), cet événement aurait été parfaitement anticipé par les investisseurs, lesquels n’auraient par conséquent jamais investi dans de tels dérivés. De sorte que ladite bulle n’aurait même pas pu se former (sic !)5. En outre, pour qu’un tel krach financier puisse provoquer la faillite d’une banque comme Lehman Brothers, il eût fallu qu’existât un secteur bancaire dans les modèles économiques. Et pour que cette faillite (qui eut lieu le 15 septembre 2008) puisse provoquer une récession mondiale majeure, il eût fallu que la monnaie fût non-neutre (à court terme). Plutôt que de reconnaître qu’aucun de ces enchaînements logiques n’est compatible avec la plupart des modèles en vigueur, nous avons préféré se réfugier derrière l’idée que 2007-2009 avait été un “cygne noir” : un événement qui ne survient qu’une fois par siècle (ou par millénaire), et dont il serait extravagant d’exiger de la communauté des économistes qu’elle fût capable de l’anticiper. Autrement dit, nous avons troqué l’éthique scientifique contre celle des « astrologues ». Car, depuis le début des années 1980 (qui coïncident avec le début de l’expérience de déréglementation financière), le monde connaît une crise financière grave tous les 4 ans en moyenne…

6. La complexité

Le second aspect par lequel je terminerai ce catalogue des errements de la “science économique” contemporaine est peut-être le moins facile à comprendre au premier abord. Il s’agit de la possibilité de phénomènes d’émergence, au sens où l’entend, par exemple, la physique statistique. Si vous agrégez le comportement de plusieurs millions d’individus, avez-vous quelque raison de penser que ce qui en sortira ressemblera au comportement d’un méta-individu? Evidemment non. C’est bien, du reste, ce que l’on observe empiriquement. Par une sorte de triste ironie, cela a même été démontré à l’intérieur du paradigme de l’économie néo-classique dans les années 19706: quand bien même tous les ménages français étaient capables d’anticiper le cours trimestriel moyen du baril sur le prochain siècle, leur salaire, le taux auquel ils pourront emprunter dans une banque, etc. et de résoudre le problème consistant à optimiser leur bonheur sous leur contrainte budgétaire, la demande agrégée de pétrole en France n’aurait aucune raison de ressembler à celle de l’un de ces ménages7.

Et pourtant, une écrasante majorité de modèles quantitatifs utilisés dans nombre d’institutions publiques font l’hypothèse que tout se passe comme si la demande agrégée de pétrole en France pouvait se ramener à celle d’unménage unique (que l’on baptise “représentatif”). Pourquoi ? Probablement pour ne pas avoir à renoncer au schéma psychologique qui gouverne l’économie néo-classique depuis plus d’un siècle. Mais c’est alors la “complexit锑 (au sens contemporain du terme) de l’agrégation de millions de comportements partiellement coordonnés qui est entièrement esquivée par ce type d’approche.

Au passage, une telle hypothèse a des conséquences déterminantes pour l’intelligence des phénomènes économiques : elle implique, par exemple, que le secteur des ménages n’a jamais de dette (privée). Comment, en effet, un unique ménage (représentatif !) pourrait-il avoir des dettes vis-à-vis de lui-même ? Pour qu’il y ait dettes, il faut un créancier et un débiteur distincts. Cela explique pourquoi, dans la plupart de ces modèles, les dettes privées ne sont jamais un problème. (Et nous avons vu plus haut pourquoi la dette publique, elle, en est toujours un, cf. le “théorème d’équivalence ricardienne”.)

7. Et maintenant ?

Le lecteur qui découvrirait ce qui précède restera sans doute perplexe. Comment est-ce possible ? Que répondent les économistes néo-classiques (c’est-à-dire l’écrasante majorité d’entre nous) à ce type de reproche ?

La raison profonde pour laquelle il est possible à la profession des économistes de continuer de prospérer avec un fonds de commerce analytique aussi gravement défaillant, c’est qu’en réalité, il n’est pas absolument nécessaire de disposer d’un économiste pour faire tourner une économie alors qu’il est rigoureusement impossible de faire décoller un avion long-courrier sans les calculs d’un physicien, aidé par une batterie d’ingénieurs. Qui plus est, lorsque l’avion s’écrase au sol, souvent, une enquête permet d’élucider assez exactement les raisons du drame. En économie, nous ne sommes toujours pas d’accord entre nous sur les raisons profondes de la grande déflation dans laquelle ont sombré l’Europe et les Etats-Unis durant les années trente. Sans parler de la stagnation du Japon qui vient de “perdre” deux décennies ou encore de la crise européenne actuelle.

Ensuite, que répondent les économistes eux-mêmes ? Le plus souvent, ils ne répondent rien. L’ouvrage de Steve Keen, que l’un de mes doctorants et moi avons traduit8, et qui contient une partie des critiques formulées ci-dessus n’a suscité rigoureusement aucun débat contradictoire entre économistes, sinon une table ronde aux Rendez-vous de l’histoire de Blois (11 octobre 2014). Enfin, les économistes néo-classiques qui consentent à discuter évoquent souvent le même genre d’argument : prises isolément, certaines des critiques qui précèdent ont été envisagées dans un cadre néo-classique. Par exemple, Michael Kumhof a tenté de construire des modèles d’équilibre général stochastique où l’énergie joue un rôle « non-trivial »9. L’inefficience des marchés financiers a été formalisée dans les années 1980, et la non-neutralité de la monnaie, dans les années 200010. Krugman a introduit des dettes privées dans un modèle néo-classique (sans monnaie) en 201111, etc. L’argument conclut alors que l’avant-garde de la recherche travaille à ces questions, que c’est évidemment fort complexe mais qu’une solution ne manquera pas d’émerger bientôt. Patience, donc…

En réalité, mon expérience est qu’il advient de ces tentatives isolées pour remettre l’économie sur le chemin du réel exactement ce qu’il est advenu aux démonstrations de l’existence de phénomènes d’émergence liés à l’agrégation des comportements, dans les années 1970 (cf. supra) : elles sont ignorées. De même, à l’issue de la querelle des deux Cambridge sur le capital au cours des années 1960, les économistes néo-classiques nord-américains, au premier rang desquels Paul Samuelson, ont reconnu que leurs contradicteurs britanniques avaient raison12. Les premiers défendaient une définition englobante du capital, ne permettant pas de distinguer entre différents secteurs d’infrastructures, immobilier, capital financier... Les seconds défendaient l’idée que ces distinctions sont vitales pour la compréhension de l’économie. Cette querelle, pourtant fondamentale, n’est presque jamais enseignée. L’aveu final des Nord-américains reconnaissant leurs erreurs l’est encore moins. Piketty, dans son opus magnum, semble ignorer la fin de cette controverse (qu’il estime “stérile”), et n’hésite pas à redonner raison aux néo-classiques américains (p. 366). Il est vrai que ses propres analyses sont construites sur les modèles de ces derniers et la conception du capital erronée qui leur est sous-jacente.

Qui plus est, quand bien même ces aménagements partiels du paradigme néo-classique ne seraient pas tout simplement ignorés, il est aisé de comprendre que la réalité systémique de l’économie exige de traiter ensemble les différents problèmes soulevés dans cet article13. Prendre au sérieux cette réalité systémique suppose de changer franchement de cadre, plutôt que de se contenter de toilettages marginaux. Car, si la moitié des jeunes Espagnols sont aujourd’hui au chômage, ce n’est évidemment pas parce qu’ils aiment prendre des vacances sans solde. Mais c’est bel et bien parce que l’Espagne, criblée de dettes privées (et non pas publiques), en particulier bancaires, entre lentement mais sûrement dans la déflation monétaire, et donc la récession. Quant à cet excès d’endettement privé, il provient lui-même de la bulle immobilière (andalouse notamment) qui, aidée par des opérations financière de titrisation massive, a gonflé en Espagne au début des années 2000, pour éclater durant la crise de 2008.14 On le voit : ne fût-ce que pour rendre compte du chômage espagnol contemporain, ce sont presque toutes les réformes analytiques évoquées supra qui doivent être mises en œuvre simultanément. A moins de cela, les aménagements à la marge permettront au mieux aux économistes de ressembler à ces savants aveugles cherchant à deviner à tâtons ce qu’est un éléphant…

Un argument ultime est parfois invoqué : “certes, toutes ces critiques sont fondées mais, que voulez-vous, il n’existe malheureusement pas d’alternative. Alors, faute de mieux…” Argument irrecevable : les alternatives sont nombreuses. Les modèles stock-flow consistent, par exemple, permettent de faire une distinction claire entre flux et stocks, et de comptabiliser rigoureusement les uns et les autres (ce qui, on l’a vu, est le plus souvent impossible dans les approches néo-classiques)15. Plusieurs physiciens travaillent à la meilleure manière d’intégrer les ressources naturelles dans l’analyse. La chaire Energie et Prospérité, le laboratoire du LIED, le CIRED, etc. sont impliqués dans ce programme de recherche. Les simulations agent-based s’inspirent de la physique statistique pour étudier l’agrégation complexe de comportements hétérogènes16. Les équations différentielles non-linéaires à la Goodwin-Keen s’efforcent de rendre compte de la dynamique hors équilibre d’une économie dont la monnaie est non-neutre17, etc.

Ces directions de recherche, et d’autres qu’il faut encore inventer, constitueront, sans nul doute possible, l’armature de l’analyse économique de demain. Il me paraît urgent que ce renouveau de l’analyse économique puisse s’inscrire rapidement dans les agendas de recherche de la communauté scientifique, les cursus d’enseignement, la formation continue des ingénieurs, des chefs d’entreprise et des hauts fonctionnaires. A moins de cela, nous continuerons d’appliquer des recettes sans fondement en guise d’économie politique : soit que ce qui leur tient lieu de « fondement » relève du conte de fée, soit (dans le meilleur des cas) que le bon sens des décideurs les oblige à rompre avec la doxa. Il est du devoir de la communauté académique de fournir un débat transparent qui permette à chacun de s’orienter dans le maquis des bifurcations décisives que nos sociétés vont devoir prendre au cours des années à venir --- ne fût-ce que vis-à-vis des enjeux climatiques et énergétiques.

1 Bien des alternatives ont été construites, en particulier par des économistes français (Bénassy, Malinvaud, Grandmont, Guesnerie...), qui, à ce jour, ne parviennent toujours pas à détrôner le paradigme dominant actuel.

2 Cet argument, dû à David K. Levine, vous convainc ? Cf. http://www.huffingtonpost.com/david-k-levine/uncertainty-principle-economics_b_1220796.html. Cet argument implique uniquement que les modèles des économistes doivent être compatibles avec des anticipations parfaites. Non pas que ces dernières sont la seule représentation légitime des anticipations individuelles.

3 Comme le reconnaissent John Geanakoplos et Dimitrios Tsomocos in “International Finance in General Equilibrium”, Research in Economics, (2002), 56(1): 85-142.

4 Robert Barro, “Are Government Bonds Net Wealth?”, Journal of Political Economy, 1974, 82 (6): 1095–1117. 

5 Soyons fair-play: la clairvoyance supposée des investisseurs, dans les modèles néo-classiques, est compatible avec l’éclatement d’une bulle spéculative susceptible d’intervenir avec une probabilité négligeable. C’est la thèse du “cygne noir”.

6 Gérard Debreu, ‘Excess demand functions,’ 1974, Journal of Mathematical Economics, 1: 15–21.

7 Ce qui, d’ailleurs, rend sans objet une bonne partie du débat précédent sur les anticipations parfaites : quand bien même cette hypothèse serait valide à l’échelle individuelle, il n’y a aucune raison pour que ses conséquences soient préservées à l’échelle agrégée.

8 Steve Keen, L’Imposture économique, Ed. de l’Atelier 2014, (trad. fr. Aurélien Goutsdmedt, Gaël Giraud).

9 Michael Kumhof et Dirk Muir, FMI WP/12/256, “Oil and the World Economy: Some Possible Futures” voir aussi “The effects of oil price shocks in a new-Keynesian framework with capital accumulation” Verónica Acurio Vásconez , Gaël Giraud, Florent Mc Isaac, Ngoc-Sang Pham à paraître in Energy Policy.

10 Voir les travaux de John Geanakoplos, Pradeep Dubey ou encore Gaël Giraud et Antonin Pottier , “A., Debt-deflation versus liquidity trap: the dilemma of nonconventional monetary policy”, à paraître in Economic Theory.

11 Paul Krugman et Gauti Eggertson, “Debt, Deleveraging, and the Liquidity Trap: A FisherMinskyKoo approach, The Quarterly Journal of Economics (2012) 127 (3): 1469-1513.

12 Paul A. Samuelson (1966) ‘A Summing Up,’ Quarterly Journal of Economics, 80(4): 568–83.

13 Et d’autres qui n’ont pas été mentionnés faute de place : la difficulté à penser la détermination des taux de change, la structure de la courbe des taux, etc.

14 Cf. Illusion financière, Ed. de l’Atelier, 2013.

15 Cf. Lavoie, M., Post-Keynesian Economics: New Foundations, Cheltenham, Edward Elgar,2014.

16 Cf. e.g., Geanakoplos, John, Robert Axtell, J. Doyne Farmer, Peter Howitt, Benjamin Conlee, Jonathan Goldstein, Matthew Hendrey, Nathan M. Palmer, and Chun-Yi Yang. 2012. "Getting at Systemic Risk via an Agent-Based Model of the Housing Market." American Economic Review, 102(3): 53-58.

17 Cf., e.g., Matheus R. Grasselli et Adrien Nguyen Huu, “Inflation and Speculation in a Dynamic Macroeconomic Model”, J. Risk Financial Manag. 2015, 8, 285-310.

 

 

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.