L’inanité des théories économiques ne s’arrange pas

Mathématisation et fuite en avant dans la complexité éloignent toujours plus du monde réel, et de ce qu’il faudrait en faire

 Les théories économiques mettent en scène des acteurs qui ne sont pas des robots : ils n’obéissent pas à des équations, ce sont des humains, nantis d’informations fausses ou incomplètes, sujets à des passions changeantes, séduits par des objets nouveaux, influencés par des idéologies variables, bombardés par la publicité et des recommandations en tous genres, et qui même, aussi, sont des citoyens avec des idées politiques. Imprévisibles, même par eux-mêmes… Ces différentes influences sont étudiées par la psychologie, la sociologie, l’histoire, l’anthropologie, la biologie, la génétique et des fictions : les romans, les scénarios de films et les évolutions défavorables (stress tests) ; et les sciences politiques.

La plupart des relations entre humains ne sont pas des relations économiques : bon voisinage, amitié, amour, reproduction, famille, convivialité, sport, persécutions, religions, guerres… Beaucoup de relations « économiques » ne sont ni monétisées ni mesurées : au sein de la famille, des conseils municipaux, des conseils des mutuelles et des coopératives, des organisations caritatives bénévoles. Et des activités passent d’une catégorie à l’autre : ce qui état gratuit devient payant ou l’inverse, ce qui était fait par le producteur est confié au consommateur ou l’inverse, cela change sans cesse.

 Néanmoins les économistes veulent autonomiser leurs théories. Ils imaginent un homo œconomicus influencé seulement par des besoins et des désirs monétisables : l’humain n’est plus qu’un consommateur qui a de l’argent à dépenser. La théorie micro-économique le réduit à une fonction d’utilité, une fonction mathématique qu’elle représente par une courbe. De sa psychologie réelle il ne reste que cela.

 Le producteur chercherait seulement à maximiser son profit à partir d’une fonction de production, fausse parce qu’elle suppose des rendements décroissants, alors que la plupart des productions bénéficient de rendements croissants, ce qui invalide la théorie de l’équilibre général, qui est au fondement des théories et des modèles dominants. Archi-fausse même parce qu’elle ne prend en compte que le capital et le travail, ignorant les ressources naturelles plus ou moins rares et épuisaables et les pollutions donnant ou non lieu à des taxes.

 L’épargnant est censé optimiser son coefficient rendement/risque, mais :

  • 1- les rendements à venir ne sont pas connus
  • 2- les risques à venir ne sont pas connus non plus
  • 3- Le rendement n’a aucune raison d’augmenter avec le risque. Beaucoup se sont enrichis sans prendre de risques et beaucoup ont fait faillite en prenant des risques.

Markowitz, inventeur de cette théorie en 1952, a reçu le prix Nobel d’économie en 1990, puis a expliqué en 2005 pourquoi son modèle ne fonctionnait pas, mais a gardé le montant du prix qu’il gère en s’abstenant de recourir à sa propre théorie.

 Après avoir jeté la psychologie par-dessus bord avec la micro-économie, les théoriciens vont faire de même avec la sociologie, la psychologie de masse, et la politique, en passant avec la macro-économie, à un deuxième niveau d’abstraction. Mais la situation théorique empire. Arrow et Debreu, à l’aide d’hypothèses fausses telles que les rendements décroissants et la « loi » de l’offre et de la demande (prise en défaut sur les marchés financiers dont leur théorie a impérativement besoin), avaient prouvé l’existence et l’unicité de l’équilibre général en micro-économie, mais le théorème de Sonnenschein-Mantel-Debreu montre que le passage à la macro fait perdre l’unicité de l’équilibre, du fait des « effets de richesse » (en clair, les riches, eux, ont plusieurs choix). Et sa stabilité n’est pas garantie non plus ; comme on l’a vu en 2008, sa stabilité n’existe pas. Ce qui n’empêche pas les modèles macro-économiques de continuer à être fondés sur la théorie de l’équilibre général, comme si de rien n’était.

Ces modèles (Dynamic Stochastic General Equilibrium, DSGE) partent d’hypothèses plus variées mais tout aussi fausses : des marchés complets et efficients, des anticipations rationnelles, des primes de risque, et ignorent les effets non linéaires ; dans un monde aussi idéalisé, il n’y a pas de place pour une crise, comme l’a fait remarquer Paul Krugman. Ils ne décrivent pas la réalité, et c’en est au point que Blanchard, ex-économiste en chef du FMI, propose d’utiliser deux catégories de modèles, les DSGE pour faire de la théorie, et des modèles pragmatiques pour guider les politiques menées ; mais alors, à quoi bon la théorie ?

 On atteint un troisième niveau d’abstraction avec les théories monétaires et budgétaires, et même un quatrième niveau avec les théories qui prétendent guider l’action des banques centrales.

Prenons le monétarisme quantitativiste de Friedman, par exemple. À l’en croire, l’autorité monétaire doit se borner à faire croître la masse monétaire comme la production, ni moins vite, ce qui la freinerait, ni plus vite, ce qui susciterait de l’inflation.

Cette belle simplicité est au premier abord évidente, mais inapplicable.

En pratique, on ne sait pas prévoir l’influence de la monnaie créée par la banque centrale, à supposer qu’elle arrive à la créer, ce qui dépend aussi des banques, sur la monnaie créée par les banques commerciales, à supposer que cette influence existe, alors que les banques elles-mêmes ne créent pas non plus la monnaie à leur gré : cela dépend aussi de leurs clients.

Et contrairement à ce qu’affirme Friedman, une politique monétaire généreuse ne provoque pas nécessairement un choc inflationniste, comme on le constate aujourd’hui.

 Keynes de son côté a prétendu que des politiques d’investissements publics relançaient l’activité en période de récession, avec un coefficient multiplicateur : la relance produirait plus de valeur que les montants qu’on y a mis. Mais ce coefficient est calculé à l’aide de formules qui le rendent variable selon les circonstances, et c’est bien ce qu’on constate.

À l’usage, parfois cela relance la production, parfois cela relance les importations et l’inflation : c’est la stagflation. Keynes propose un outil utile, mais insuffisant.

La monnaie ni le déficit budgétaire, une autre forme de monnaie, ne sont le tout de l’activité économique.

De même que la théorie économique a cherché en vain à s’autonomiser du reste de la vie sociale, de même la théorie monétaire a cherché en vain à s’autonomiser du reste de la vie économique.

 Trop simplistes les théories ?

Soit. Modélisons la réalité. Ayons recours aux mathématiques. Pour tout prendre en compte, multiplions les hypothèses, les équations, les paramètres, les théorèmes. Maintenant, avec les méga-données et les ordinateurs, on peut tout calculer, tout vérifier. C’est de la vraie science, ou, du moins, ce sont des vraies math… Ce ne sont plus des théories, ce sont des modèles mathématiques.

C’est là qu’on augmente sans cesse le nombre de manières de ne plus savoir de quoi on parle ; et en y rajoutant des manières d’être invérifiables.

Les hypothèses sont aussi fausses dans les modèles qu’elles l’étaient dans les théories. Le fait de leur donner une forme mathématique ne leur ajoute pas une once de vérité. Quand les hypothèses sont fausses, inutile d’invoquer les théorèmes. Pas grave, on les applique quand même, en expliquant que, certes, les hypothèses sont « stylisées », mais quand même justes dans l’ensemble, ce qui est faux…

Les formules comportent de plus en plus de paramètres, qui ne sont pas donnés par des lois. Il faut les inventer. On les tire de l’observation des statistiques sur le passé. Mais les comportements changent, et les corrélations aussi. Pas grave : on ajuste les paramètres. Jusqu’à la prochaine fois.

C’est pénible, tous ces changements.
Alors, on les remplace par une catégorie spéciale de paramètres : les probabilités. Un modèle probabiliste n’est pas déterministe, donc ne s’invalide pas d’un seul coup, mais par étapes. Soit un événement qu’on affecte d’une probabilité de un sur milliard, une crise par exemple ; la crise se produit ; le modèle n’est pas invalidé, puisqu’il avait bien prévu l’événement. Pour en tenir compte, on va remplacer la probabilité de un sur milliard par un sur un million, ce qui ne change rien.

 Les modélisateurs voient que leurs modèles sont fort peu prévisionnels, donc ils les « perfectionnent ». Ils rajoutent des formules plus compliquées, des paramètres, des probabilités, des matrices, des corrélations, des copules, des semi-martingales, des équations différentielles stochastiques, des intégrales d’Itô, pour coller de plus près à la réalité. À la réalité mesurée dans le passé. « Les modèles sont ventriloques », a dit Raymond Barre. Ventriloques, mais pas prévisionnels…

 On peut opposer deux catégories de théories, toutes deux menacées par l’aphorisme de Paul Valéry : « tout ce qui est simple est faux, mais tout ce qui ne l’est pas est inutilisable ». Ce disant, Valéry ouvre un choix.

Ou bien on dispose de lois stables et justes, comme les lois de la physique, ou d’un modèle probabiliste raisonnablement fiable, comme les actuaires avec la loi des grands nombres et le théorème central limite, et on peut construire des modèles approximatifs mais quand même utilisables, avec des marges d’erreur calculables. L’ingénieur peut construire un pont qui résiste aux intempéries, aux camions, aux glissements de terrain, voire aux tremblements de terre ; une centrale nucléaire qui n’explose pas souvent, un avion qui vole en tombant rarement, une table de mortalité qui ne ruine pas l’assureur. Et quand l’avion tombe, l’ingénieur peut disséquer les débris, trouver ce qui a dysfonctionné, et modifier l’avion pour qu’il ne présente plus ce défaut, ou préconiser d’autres procédures de pilotage et de maintenance.

Soit on ne dispose pas de ces bases solides, comme en économie, et la fuite en avant dans la complexité des modèles est stérile, voire nuisible. Le modèle est non seulement inepte, mais trompeur : il inspire des décisions dont les conséquences peuvent être mauvaises, voire désastreuses.

Et quand le modèle se trompe, on ne sait pas le disséquer pour voir ce qui a dysfonctionné et le réparer. En rajoutant des hypothèses fausses, des paramètres arbitraires, des probabilités invérifiables, des formules contestables, les modèles multiplient les manières d’être irréalistes, et donc irréparables. En effet, comment le réparer devant cette complexité croissante ? Quelle hypothèse modifier ? Quel paramètre changer ? Quelle probabilité rectifier ?

 Cette fuite en avant dans la complexité ne mène nulle part. C’est un gâchis qui empêche la compréhension des phénomènes humains réels, qui trompe les analystes, qui incite les décideurs à prendre à l’aveuglette de mauvaises décisions.

 Il faut donc suivre le conseil de Blanchard. Utilisons des modèles pragmatiques, aussi simples que possible, grossiers, inexacts, mais qui indiquent grosso modo dans quelle direction aller pour essayer d’améliorer un peu les choses.

 C’est ce que fait, sans le dire, la banque centrale européenne. Pour la théorie, elle utilise le DSGE de Smets-Wouters, qui a ceci de pratique qu’il ne distingue pas les pays membres, alors que l’euro est censé les faire converger, et qu’il les fait diverger : et voilà le problème central de la zone euro astucieusement évacué (pour le moment). Et pour l’action, elle feint d’utiliser la règle de Taylor, ou une de ses variantes, qui comporte très peu de paramètres et suffisamment mal définis pour qu’elle puisse les traficoter de telle manière qu’elle aboutisse à des taux directeurs nuls ou négatifs, à l’évidence ce qu’il nous faut. Évidence qui ne nécessite aucune formule, mais il faut bien faire semblant d’utiliser une formule mathématique pour venir à bout de la résistance de la Bundesbank qui fait remarquer que les traités européens ne demandent pas à la BCE de se soucier de la production, précisément ce que fait la formule de Taylor…

 Prise d’un deuxième accès de bon sens, l’académie royale de Suède, après avoir déjà primé Daniel Kahneman en 2002, a décerné le prix Nobel d’économie de 2017 à Richard Thaler qui a montré que les humains étaient influencés par bien d’autres choses que les prix de marché.

Mais Thaler n’est pas seulement un psychologue. Il s’est fait aussi conseiller politique, avec son livre sur la manière d’influencer les gens à leur insu, et, en principe, pour leur bien (nudge).

 Thaler et l’académie nous montrent la voie : il faut remplacer les théories économiques par des théories psychologiques et politiques, et le Nobel d’économie par un Nobel de psychologie politique : mais attention, on n’en est qu’au tout début d’un chemin long et difficile.

 Très attention, même. Car il faudra veiller à ce que les dirigeants influencent les gens dans le bon sens, pas dans le mauvais.
Et surtout réfléchir aux manières pour les citoyens d’influencer les dirigeants politiques, une science politique encore balbutiante, et qui n’a pas encore son prix Nobel, pour répondre à une très vieille question : « comment transformer nos sociétés en démocraties ? »

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.