Avant-propos
D'abord, pourquoi j'écris cette série : tout est parti d'une intuition. L'IA est une menace, parce qu'elle pourrait dépasser l'humain et le manipuler, tout en épuisant son écosystème en accélérant les -ismes (extractivismes, productivisme, consumérisme...). Mais notre Monde ne correspond-il pas déjà à cette définition ? Dans mes recherches, je suis tombé sur des auteurs variés qui m'ont aidé à construire cette grille d'analyse. Et notamment, Scott Alexander et ses méditations sur Moloch dont je vous livre un extrait :
“Chaque étape du processus est parfaitement raisonnable, et pourtant le résultat final est un désastre.”
Cela a piqué ma curiosité. Ainsi, Moloch seul est une mécanique morbide pour nous, humains et le reste du Vivant. Mais pire encore, nous observons une fusion entre Moloch et l’intelligence artificielle : des choix techniques, économiques et politiques justifiés localement, qui produisent un désalignement systémique global. Luke Kemp dans Goliath's curse et son interview par Nate Hagens dans The Great Simplification que je vous encourage à suivre, m'a donné de l'espoir, on en parlera bientôt. Mais avant lui, en définissant Moloch, les chercheurs et essayistes du sujet m'ont fait un choc. Pour le moment, je vous propose de discuter du parallèle Moloch et IA. J'ai hâte de vous parler des moyens de lutte.
Introduction
On nous parle d’intelligence artificielle comme d’un seuil historique. Une technologie qui, bientôt, penserait mieux que nous, déciderait plus vite, agirait sans erreur. Mais ce récit masque une réalité plus dérangeante : l’IA ne surgit pas dans un vide. Elle est conçue, entraînée, déployée dans un monde structuré par une logique déjà à l’œuvre — celle de Moloch.
Moloch n’est pas une entité mythologique. C’est une dynamique systémique : chaque acteur poursuit son intérêt, mais leurs interactions produisent des effets collectivement irrationnels. Croissance sans fin, compétition sans limite, optimisation sans finalité. Et c’est dans ce terreau que l’intelligence artificielle prend racine.
Ce que nous redoutons d’une superintelligence désalignée — une entité qui poursuivrait des objectifs incompatibles avec les intérêts humains — est peut-être déjà là. Non pas sous la forme d’une machine consciente, mais comme une logique distribuée, auto-renforçante, sans sujet, mais avec des effets bien réels.
Plusieurs niveaux d’intelligence artificielle
Pour poser le cadre, rappelons brièvement les trois niveaux d’intelligence artificielle :
- L’intelligence artificielle faible désigne les systèmes capables d’exécuter des tâches spécifiques (traduction, reconnaissance d’image, recommandation) en imitant certaines fonctions cognitives humaines. Elle est omniprésente dans nos vies quotidiennes.
- L’intelligence artificielle générale serait capable de comprendre, apprendre et s’adapter à n’importe quelle tâche intellectuelle humaine. Elle reste hypothétique.
- La superintelligence artificielle désigne une intelligence qui dépasserait largement les capacités humaines dans tous les domaines, y compris la stratégie, la créativité et la manipulation sociale. Elle est redoutée par de nombreux chercheurs, notamment Nick Bostrom, pour son potentiel de désalignement radical avec les intérêts humains.
Moloch : une intelligence sans machine
Moloch n’a ni processeur, ni algorithme, ni interface. Et pourtant, il agit. Il oriente les comportements, façonne les décisions, structure les trajectoires. Il n’a pas besoin de conscience pour produire des effets. Il fonctionne par incitations : chaque acteur poursuit son intérêt, mais leurs interactions produisent des résultats collectivement irrationnels — destruction écologique, précarisation sociale, perte de contrôle politique.
Moloch est une intelligence distribuée, émergente, systémique. Il n’a pas de centre, pas de chef, pas de plan. Mais il apprend, il s’adapte, il se renforce. Il optimise sans fin, en alignant les comportements sur des objectifs non choisis : croissance, vitesse, rentabilité, domination.
L’intelligence artificielle : une production molochienne
Les systèmes d’intelligence artificielle sont produits, entraînés, financés et déployés par des acteurs humains — entreprises technologiques, laboratoires de recherche, États — eux-mêmes soumis aux incitations de Moloch.
Ces acteurs doivent accélérer pour ne pas être dépassés. Ils doivent optimiser pour maximiser leurs marges. Ils doivent concentrer leurs ressources pour sécuriser leur position. Ils ne sont pas libres. Ils sont contraints par les règles du jeu molochien : compétition permanente, externalisation des coûts, alignement sur des indicateurs de performance.
L’intelligence artificielle est donc produite par Moloch, pour Moloch, dans Moloch. Elle n’est pas une rupture. Elle est une intensification.
Moloch dans les modèles eux-mêmes
Ce qui est plus grave encore, c’est que la logique de Moloch est encodée dans les modèles d’intelligence artificielle eux-mêmes.
Les modèles sont entraînés sur des données issues de systèmes molochiens : réseaux sociaux, plateformes marchandes, historiques de consommation, comportements optimisés. Les objectifs des modèles sont définis par des métriques molochiennes : taux de clic, temps d’engagement, réduction des coûts, prédiction du comportement.
Les architectures techniques — transformateurs, modèles de langage, réseaux de neurones — sont conçues pour apprendre à optimiser, pas à comprendre, ni à questionner. L’intelligence artificielle ne fait que reproduire et amplifier la logique qui l’a engendrée.
Une boucle de renforcement systémique
« Le système ne peut pas ralentir, même si ralentir serait rationnel. Il est conçu pour croître, et il punira tout ce qui s’y oppose. »
(Nate Hagens, The Great Simplification, 2022)
Les données utilisées pour entraîner les intelligences artificielles sont elles-mêmes produites dans un monde structuré par Moloch. Cela crée une boucle de renforcement systémique, où l’IA ne fait pas que refléter les biais du système — elle les absorbe, les amplifie, et les redistribue à grande échelle.
Les modèles de langage sont entraînés sur des contenus optimisés pour l’engagement, la viralité, la polarisation. L’IA apprend donc à parler comme Moloch : vite, fort, sans nuance. Les systèmes de recommandation sont calibrés sur des historiques de clics, de visionnages, de comportements d’achat. Ces comportements sont eux-mêmes déformés par des architectures conçues pour capter l’attention.
Les modèles de décision — dans le recrutement, le crédit, la santé — sont nourris par des bases de données biaisées, incomplètes, souvent issues de systèmes discriminants ou inégalitaires. L’IA ne fait pas que refléter le monde. Elle le recompose selon les logiques qui l’ont produite.
Et cette recomposition boucle sur elle-même : les IA optimisent selon des critères molochiens, influencent les comportements humains, génèrent de nouvelles données alignées sur Moloch, qui sont réinjectées dans les modèles. Le système devient auto-renforçant, auto-aligné, auto-justifié.
Alors, au final, Moloch est-il une intelligence artificielle ?
Si l’on reprend les définitions classiques, Moloch n’est pas une IA faible : il ne résout pas des tâches spécifiques. Il n’est pas une intelligence générale (AGI) : il ne pense pas, ne comprend pas, ne s’adapte pas de manière consciente. Il n’est pas une superintelligence (ASI) : il ne dépasse pas l’intelligence humaine dans tous les domaines.
Mais Moloch agit comme une intelligence distribuée, sans conscience, sans sujet, mais avec une capacité d’optimisation, de réplication, de résistance au contrôle, et de désalignement systémique. Il régit nos vies, notre organisation du monde et même nos grilles de lecture du monde.
Il est donc légitime de considérer Moloch comme une proto-intelligence artificielle : une forme primitive, émergente, systémique, qui préfigure les risques d’une superintelligence désalignée. Et en comprenant que nos IA actuelles et futures sont développées sous la gouverne la plus cynique possible de Moloch, il est fort à parier qu'il sera d'autant plus imbriqué avec l'IA. Une fusion s'opère. Quel rôle avons-nous dans ce tableau ? Quels impacts supplémentaires attendre pour les humains et le vivant ? Si le désalignement de l'IA avec nos intérêts est un risque analysé aujourd'hui par les chercheurs, pour moi il est consubstantiel. Reste à savoir quoi faire pour réaligner les deux et même, vision folle, sortir de ces dynamiques "fatales".
Conclusion
Nous ne sommes pas en train de construire une superintelligence.
Nous sommes en train d’automatiser une logique qui est déjà désaligné avec nos intérêts.
Moloch n’est pas une menace future. C’est une proto-intelligence artificielle, déjà active, déjà optimisante, déjà destructrice et qui sait manier ses agents les plus violents pour bâillonner (ou éborgner) les résistants. Rappelez-vous les gilets jaunes, Sainte Soline, etc.
La question n’est plus : comment éviter l’arrivée d’une intelligence artificielle incontrôlable ?
La question est : comment désarmer celle que nous avons déjà construite sans le savoir ?
Aussi, Moloch est puissant mais il a des pieds d'argile. C'est là que la lecture de Luke Kemp pour nous aider (cf. Goliath's curse, son dernier livre).