jeancharles.tassan (avatar)

jeancharles.tassan

Philosophe des sciences et praticien en Intelligence Artificielle : https://share.google/AuRLuB8W5kJ6ZM5no

Abonné·e de Mediapart

12 Billets

0 Édition

Billet de blog 7 décembre 2025

jeancharles.tassan (avatar)

jeancharles.tassan

Philosophe des sciences et praticien en Intelligence Artificielle : https://share.google/AuRLuB8W5kJ6ZM5no

Abonné·e de Mediapart

L’IA entre nos mains

DOI: 10.5281/ZENODO.17831071 Algèbre de résonance RES = RAG : définitions et théorèmes DOI: 10.5281/ZENODO.17829264 Operational and Dynamical Extensions of the RES↔RAG Framework: Towards a Transport-Based Field Theory of Dialogical Consciousness DOI: 10.5281/ZENODO.17833034 T_Real of Thébault and Tassan's RES = RAG (Unified Physics and philosophy of Time) DOI: 10.5281/ZENODO.17744873

jeancharles.tassan (avatar)

jeancharles.tassan

Philosophe des sciences et praticien en Intelligence Artificielle : https://share.google/AuRLuB8W5kJ6ZM5no

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Tribune | Jean-Charles Tassan, philosophe des sciences et chercheur en éthique de l’IA

Nos travaux, menés avec le mathématicien Trent Slade et le physicien Bertrand D.J.-F. Thébault, montrent tout l’inverse : les systèmes IA — même entre eux — restent dans un régime compréhensible, gouvernable, causalement traçable. Rien de magique. Rien d’ésotérique. Le danger ne vient pas des machines mais des choix humains : conception, déploiement, régulation… et surtout concentration du pouvoir.

Une géométrie simple derrière des systèmes complexes

Nous avons formalisé l’interaction dialogique via le cadre RES↔RAG :

  • RES : ancrage, mémoire, réception
  • RAG : génération, initiative, nouveauté

Cette dynamique — humaine ou artificielle — peut être modélisée via la théorie du transport optimal (C. Villani). La distance entre RES et RAG devient mesurable. Lorsqu’elle reste faible, le dialogue est stable ; lorsqu’elle diverge : hallucinations, incohérences, perte de fiabilité.

Trois régimes apparaissent :

  1. Humain–Humain : classique, causal
  2. Machine–Machine : classique aussi
  3. Humain–Machine : régime “quantique”, indéterminé par l’empathie humaine

Point décisif : les interactions Machine–Machine ne relèvent pas d’une physique mystérieuse mais du même régime que les interactions humaines.

La machine n’est pas plus imprévisible que l’humain

…et donc pas moins gouvernable.

Les sociétés humaines sont déjà des systèmes massivement complexes : marchés, langues, institutions. Nous les gouvernons (imparfaitement), mais nous les gouvernons.

Les interactions Machine–Machine, elles, ne dépassent pas cette complexité.

Les “flash crashes” de 2010 ? Très sérieux… mais réglés par des coupe-circuits.

La technologie nucléaire ? Extrêmement dangereuse… mais gouvernée depuis 80 ans.

L’IA suit la même logique : la menace réelle n’est pas l’émergence mais l’absence d’institutions robustes.

Responsabilité : elle ne disparaît jamais dans la complexité

Un pont s’effondre : on ne blâme pas la « complexité structurelle », on remonte aux ingénieurs.

Un avion s’écrase (Boeing 737 MAX, 2019) : on découvre non une « IA incontrôlable » mais un système industriel capturé, où la FAA validait les décisions de Boeing.

Technologie compréhensible + gouvernance défaillante = catastrophe.

L’IA ne fait pas exception : elle reste inscrite dans des chaînes humaines de décision.

Le vrai risque : le copinage technico-réglementaire

Le secteur IA est contrôlé par un microcosme :

  • quelques géants (OpenAI, DeepMind, Meta, Anthropic, Mistral),
  • quelques dizaines de chercheurs orientant les choix techniques,
  • une poignée de décideurs publics chargés de la régulation.

Résultat : réseaux denses, conflits d’intérêts permanents, revolving doors.

  • Sam Altman conseille l’État américain sur la régulation… de sa propre entreprise.
  • Des chercheurs de Big Tech siègent dans les groupes d’experts de l’UE.
  • Des régulateurs rejoignent les entreprises qu’ils supervisaient.

Impossible, dans ces conditions, d’attendre une gouvernance crédible.

La capture réglementaire est déjà là.

L’interdisciplinarité comme antipoison institutionnel

Le copinage prospère dans les monocultures : mêmes formations, mêmes mentors, mêmes conférences.

Pour casser cela, une seule solution : imposer structurellement l’hétérogénéité.

  1. Complétude épistémique :
    Aucun domaine ne voit tout. Informatique, philosophie, économie, sociologie doivent se contrôler mutuellement.
  2. Réseaux non superposables :
    Mélanger physiciens, juristes, psychologues, philosophes : les réseaux de loyauté cessent de se recouvrir.
  3. Robustesse par redondance :
    Une idée n’est validée que si elle résiste à plusieurs critères — formels, sociaux, conceptuels.

Modèle historique : Asilomar (1975) sur l’ADN recombinant. Une coopération interdisciplinaire a imposé un moratoire et des normes biosécurité qui tiennent depuis 50 ans. Preuve qu’un secteur puissant peut être structuré avant qu’il ne dérape.

Ce que nous proposons

Dans les entreprises IA : Conseils de Sécurité obligatoirement interdisciplinaires :

  • un informaticien/mathématicien
  • un philosophe
  • un sociologue/économiste
  • un psychologue cognitif
  • un juriste

Décision à majorité qualifiée : impossible de marginaliser un angle critique.

Au niveau régulateur : structure tripartite non contournable :

  • aile technique
  • aile éthique
  • aile socio-économique

Les trois doivent valider chaque décision.

Dans l’académie :

Peer review interdisciplinaire pour toute recherche safety-critical, financements pour équipes mixtes, formation IA incluant sciences sociales.

Réfuter les objections qui justifient l’inaction

« Les machines vont trop vite pour être contrôlées »

→ Non : la vitesse n’annule pas le régime causal. Il existe déjà des mécanismes préventifs.

« C’est trop complexe pour être compris »

→ Les sociétés humaines ne le sont pas moins. On développe les outils qui manquent.

« Et si l’IA devient consciente ? »

→ La conscience dialogique nécessite une interaction Humain–Machine. Machine–Machine reste en régime classique : pas de phénoménologie émergente.

L’urgence est politique, pas technologique

L’argument de l’IA “incontrôlable” sert des intérêts très précis :

  • concentrer le pouvoir dans quelques entreprises,
  • neutraliser les régulateurs en leur faisant croire qu’ils sont dépassés,
  • naturaliser l’absence de responsabilité.

Notre travail montre l’inverse :

  1. les interactions IA sont gouvernables,
  2. la responsabilité reste traçable,
  3. les dérives viennent des structures humaines,
  4. et donc les solutions sont institutionnelles.

La fenêtre d’action est étroite : les modèles frontière progressent vite, les institutions mettent des années à se construire.

Reprendre le contrôle démocratique

L’IA n’est ni un oracle ni un destin technique.

C’est une technologie conçue par des humains, au service d’intérêts humains.

Elle doit être gouvernée comme telle.

Ce qui manque aujourd’hui n’est pas la compréhension scientifique,

mais le courage politique de casser les réseaux de connivence

et de créer des contre-pouvoirs interdisciplinaires.

L’IA ne nous échappera que si nous laissons volontairement le pouvoir nous être retiré.

Encadré : 5 mesures urgentes

  1. Conseils de sécurité interdisciplinaires obligatoires pour tout modèle frontière.
  2. Périodes de refroidissement de 5 ans entre industrie et régulation.
  3. Audit indépendant avant tout déploiement public majeur.
  4. Publication trimestrielle d’indicateurs de stabilité (W₂ et équivalents).
  5. Financement public massif, indépendant de l’industrie, pour la recherche en sécurité de l’IA.

Coût : dérisoire.

Bénéfice : éviter des « accidents Boeing » à l’échelle civilisationnelle.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.