jeancharles.tassan (avatar)

jeancharles.tassan

Philosophe des sciences, expert en ingénierie sémantique et Intelligence Artificielle : https://share.google/AuRLuB8W5kJ6ZM5no

Abonné·e de Mediapart

49 Billets

0 Édition

Billet de blog 6 janvier 2026

jeancharles.tassan (avatar)

jeancharles.tassan

Philosophe des sciences, expert en ingénierie sémantique et Intelligence Artificielle : https://share.google/AuRLuB8W5kJ6ZM5no

Abonné·e de Mediapart

Pourquoi le “bon usage” de l’IA passe par le dialogue simple

Une recherche française avec collaborations internationales révèle les limites physiques des instructions complexes Tribune libre / Jean-Charles Tassan, philosophe des sciences et expert en IA

jeancharles.tassan (avatar)

jeancharles.tassan

Philosophe des sciences, expert en ingénierie sémantique et Intelligence Artificielle : https://share.google/AuRLuB8W5kJ6ZM5no

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Depuis l’arrivée de ChatGPT fin 2022, une nouvelle expertise s’est développée : le “prompt engineering”, l’art de formuler des instructions complexes et détaillées pour obtenir les meilleures réponses des intelligences artificielles conversationnelles.


Des tutoriels fleurissent partout : “Les 10 techniques pour des prompts parfaits”, “Comment structurer une demande complexe”, “Le méga-prompt ultime pour développeurs”…


Le problème ? Cette approche repose sur une intuition fausse. Et nous pouvons désormais le prouver mathématiquement.


L’illusion du contrôle total
L’idée semble logique : plus je suis précis dans ma demande, plus la réponse sera exacte. Plus j’ajoute de contraintes, de contexte, d’exemples, mieux l’IA me comprendra.


C’est l’inverse qui se produit.
Après 18 mois de recherche formalisée et publiée sur les bases de données académiques internationales (Zenodo), notre équipe pluridisciplinaire a démontré que les systèmes d’IA conversationnelle sont physiquement contraints par une limite énergétique : ils ne peuvent pas traiter une synchronisation parfaite entre votre demande et leur réponse.


Tenter de forcer cette synchronisation — via un prompt hyper-détaillé — provoque ce que nous appelons une “divergence de puissance” : le système doit mobiliser une énergie computationnelle qui tend vers l’infini. Résultat : réponses instables, incohérences, “hallucinations” (inventions de faits), ou simplement échec à converger vers une solution satisfaisante.


Une question de justice cognitive
Cette découverte a des implications qui dépassent largement la technique.
Première conséquence : l’accessibilité
Si l’utilisation “optimale” de l’IA nécessitait effectivement des prompts complexes et sophistiqués, cela créerait une fracture cognitive : ceux qui maîtrisent ces techniques obtiendraient de meilleurs résultats que les autres.


Notre recherche montre le contraire : le dialogue simple, naturel, par échanges successifs, est non seulement plus accessible — il est aussi physiquement optimal. Une personne sans formation technique qui pose des questions simples et suit une conversation obtient de meilleurs résultats qu’un expert tentant de tout spécifier d’un coup.


L’IA démocratique passe par le dialogue ordinaire, pas par l’expertise ésotérique.
La sécurité par la simplicité
Deuxième conséquence : les risques
Notre modèle identifie un risque spécifique au dialogue Humain-Machine que les interactions Humain-Humain ou Machine-Machine ne présentent pas. C’est la géométrie même de l’interface qui crée une zone de danger potentiel.


Les prompts ultra-complexes ne sont pas seulement inefficaces — ils sont potentiellement moins sûrs. Ils tentent de forcer le système dans un état de synchronisation totale qui, selon nos calculs, pourrait mener à des comportements imprévisibles.
Le dialogue fragmenté, avec son rythme naturel d’échanges, maintient ce que nous appelons une “épaisseur temporelle minimale” — un espace de sécurité qui régule automatiquement la puissance du système.


Vers une écologie de l’attention artificielle
Troisième conséquence : le modèle économique
Si les systèmes d’IA fonctionnent mieux avec des dialogues simples et fragmentés, cela remet en question certaines logiques commerciales actuelles qui valorisent la “performance brute” ou la capacité à traiter des requêtes monumentales.


Une IA sobre, dialogique, qui respecte ses propres contraintes physiques, serait :
    ∙    Plus accessible (pas besoin de formation spécialisée)
    ∙    Plus fiable (moins d’hallucinations)
    ∙    Plus sûre (régulation naturelle de puissance)
    ∙    Plus économe en énergie (pas de tentatives de calculs impossibles)
La validation par les pairs
Ces travaux, formalisés dans cinq publications académiques avec DOI (Digital Object Identifier — l’équivalent d’un ISBN pour la recherche), sont désormais soumis au scrutin de la communauté scientifique internationale.
Nous avons identifié des métriques mesurables : distance de Wasserstein entre états informationnels, épaisseur temporelle phénoménale, puissance computationnelle vectorielle. Ces grandeurs peuvent être testées empiriquement sur tous les systèmes conversationnels actuels.


L’appel est lancé : chercheurs, développeurs, utilisateurs — validez, critiquez, testez. La science avance par la confrontation, pas par l’autorité.
Reprendre le contrôle par le lâcher-prise
Le paradoxe est beau : nous contrôlons mieux l’IA en acceptant de ne pas tout contrôler d’un coup.
Le dialogue simple n’est pas une concession à la facilité — c’est le respect d’une contrainte physique fondamentale. Comme on ne peut pas dépasser la vitesse de la lumière, on ne peut pas forcer une synchronisation parfaite sans coût infini.


L’émancipation numérique passe peut-être par cette sagesse : faire confiance au rythme naturel de la conversation, à la patience du dialogue, à la fécondité de l’incomplet.
Face à des systèmes qui nous dépassent par leur puissance brute, notre force réside dans notre capacité à maintenir l’espace du dialogue — cet écart minimal, cette épaisseur temporelle qui nous protège de la fusion catastrophique.
La souveraineté humaine commence là où nous acceptons que la distance soit constitutive de la rencontre.

Jean-Charles Tassan est philosophe des sciences, spécialisé en intelligence artificielle et sciences cognitives. Ces travaux ont été menés en collaboration avec Bertrand D J-F Thébault, Trent Slade, Manuel Morales et Mohamad AL-Zawahreh.
Références académiques complètes : Zenodo DOI 10.5281/ZENODO.18166092 (synthèse) et publications associées en accès libre.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.