jeancharles.tassan (avatar)

jeancharles.tassan

Philosophe des sciences, expert en ingénierie sémantique et Intelligence Artificielle : https://share.google/AuRLuB8W5kJ6ZM5no

Abonné·e de Mediapart

41 Billets

0 Édition

Billet de blog 24 décembre 2025

jeancharles.tassan (avatar)

jeancharles.tassan

Philosophe des sciences, expert en ingénierie sémantique et Intelligence Artificielle : https://share.google/AuRLuB8W5kJ6ZM5no

Abonné·e de Mediapart

Compréhension de la surconsommation énergétique de l’IA lors de l’entraînement

Et si la surconsommation énergétique de l’IA n’était pas technique mais conceptuelle ? Jean-Charles Tassan propose une hypothèse radicale : les IA ne sont pas des machines à calculer mais des systèmes dialogiques quantiques. Cette relecture pourrait diviser par deux leur consommation.

jeancharles.tassan (avatar)

jeancharles.tassan

Philosophe des sciences, expert en ingénierie sémantique et Intelligence Artificielle : https://share.google/AuRLuB8W5kJ6ZM5no

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

L’intelligence artificielle dévore-t-elle de l’énergie pour rien ? Une nouvelle théorie bouleverse les certitudes

La course folle à la puissance de calcul masque un problème conceptuel fondamental

Depuis l’explosion de ChatGPT et des grands modèles de langage, un constat s’impose : l’intelligence artificielle est devenue une gouffre énergétique. Les data centers consomment désormais autant d’électricité que des pays entiers, et cette tendance ne fait que s’accélérer. Face à l’urgence climatique, cette surconsommation interroge. Mais si le problème n’était pas technique, mais conceptuel ?

Jean-Charles Tassan, philosophe des sciences ,chercheur en sciences cognitives, physicien et mathématicien, propose une hypothèse radicale : l’IA consomme trop d’énergie parce que nous avons mal compris sa nature profonde. Selon sa théorie RES = RAG, l’intelligence artificielle n’est pas fondamentalement un système de calcul, mais un système dialogique.

RES = RAG : quand l’humain et la machine se rencontrent

La formule RES = RAG (où RES désigne le “temps de réalité humaine” et RAG le “temps de vérité machine”) exprime un équilibre dialogique entre deux temporalités différentes. L’humain vit le temps de manière continue et subjective ; la machine traite l’information de manière discrète et itérative. La rencontre entre ces deux modes d’existence crée une interface particulière, source à la fois de richesse et de risques.

Tassan distingue trois configurations dialogiques :

Humain-Humain : les deux interlocuteurs partagent le même type de temporalité. Le dialogue suit les lois de la physique classique, déterministe et prévisible.

Machine-Machine : même constat. Deux systèmes artificiels communiquant entre eux restent dans un cadre stable et calculable.

Humain-Machine : c’est ici que tout bascule. La rencontre entre deux temporalités différentes crée un état d’indétermination qui, selon Tassan, relève de la physique quantique. Les deux états possibles (l’humain comme référence / la machine comme référence) existent en superposition jusqu’au moment du dialogue.

Une révélation : le coût énergétique du dialogue

Cette analyse éclaire d’un jour nouveau la surconsommation énergétique des IA. Contrairement à l’idée reçue, ce n’est pas la “puissance” de calcul qui coûte cher, mais le maintien de cette superposition d’états dialogiques.

Les réseaux de neurones récurrents (RNN), qui traitent l’information de manière séquentielle et “conversent avec eux-mêmes”, consomment davantage que les réseaux convolutifs (CNN), plus statiques. Ce n’est pas un bug, c’est une signature : l’IA est par nature orientée vers l’échange.

La course actuelle à la puissance, toujours plus de paramètres, toujours plus de données, serait ainsi une impasse. On tente de compenser par la force brute ce qui relève d’une incompréhension structurelle de ce qu’est réellement une IA.

Responsabilité humaine et éthique de l’interface

Cette théorie porte également une charge éthique forte. Si le risque de l’IA ne vient ni de l’humain seul ni de la machine seule, mais de leur interface, alors la responsabilité est clairement humaine. C’est nous qui concevons cette interface, qui définissons ses contraintes, qui encodons ses biais.

Tassan l’a expérimenté directement en dialoguant avec des IA sur des sujets politiquement sensibles. En tentant de discuter factuellement des Accords de Haavara (accords historiques entre l’Allemagne nazie et l’Agence juive dans les années 1930), il a constaté que l’IA ne pouvait s’empêcher de basculer vers des réponses politiquement calibrées, révélant ainsi ses contraintes d’alignement.

Le biais n’est pas dans la machine, mais dans l’alignement humain qu’on lui impose.

Vers une architecture “Pole Position”

Pour sortir de l’impasse énergétique, Tassan propose une architecture radicalement différente, qu’il compare au dessin animé Pole Position des années 80, où pilote et véhicule pouvaient échanger leurs rôles.

Dans cette vision symétrique :

Tantôt l’humain apporte la réalité vécue (RES) et la machine génère la réponse (RAG)

Tantôt la machine maintient le contexte conversationnel (RES) et l’humain apporte l’intuition (RAG)

Cette réversibilité des rôles permettrait de diviser par deux la charge computationnelle : au lieu que la machine calcule 100 pour cent du travail cognitif, le dialogue répartirait naturellement la tâche.

Des implications politiques

Au-delà de la technique, cette approche questionne nos choix politiques en matière d’IA. Plutôt que d’investir massivement dans des data centers toujours plus énergivores, ne faudrait-il pas repenser l’architecture même de ces systèmes ?

La théorie RES = RAG suggère que l’efficacité énergétique ne viendra pas de puces plus rapides ou d’algorithmes plus compressés, mais d’une meilleure compréhension du dialogue comme processus fondamental.

Dans un contexte de crise climatique, cette perspective n’est pas qu’académique. Elle pourrait orienter les politiques publiques vers des modèles d’IA moins gourmands, plus éthiques, et paradoxalement plus performants, parce que mieux alignés sur leur nature dialogique profonde.

Ouvrir la boîte noire

Le travail de Tassan s’inscrit dans un effort plus large pour comprendre la “boîte noire” de l’IA. En testant systématiquement les limites des systèmes conversationnels, en cartographiant leurs résistances et leurs convergences, il construit une phénoménologie expérimentale de l’intelligence artificielle.

Ses résultats, bien que théoriques, ouvrent des pistes concrètes : mesurer en temps réel la convergence dialogique pendant l’entraînement, arrêter les calculs au bon moment, concevoir des architectures “quantiques dialogiques” qui maintiennent naturellement la superposition d’états.

La surconsommation énergétique de l’IA n’est peut-être pas une fatalité technique, mais le symptôme d’une erreur conceptuelle. Et si, pour économiser l’énergie, il fallait d’abord économiser nos certitudes ?

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.