jeancharles.tassan

Expert pluridisciplinaire à l’intersection de la philosophie, de l’intelligence artificielle et de la pédagogie.

Abonné·e de Mediapart

7 Billets

0 Édition

Billet de blog 4 mai 2025

jeancharles.tassan

Expert pluridisciplinaire à l’intersection de la philosophie, de l’intelligence artificielle et de la pédagogie.

Abonné·e de Mediapart

IA générative et éducation

jeancharles.tassan

Expert pluridisciplinaire à l’intersection de la philosophie, de l’intelligence artificielle et de la pédagogie.

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Comprendre l’équilibre émotionnel de l’IA : quand les machines apprennent à ressentir… juste ce qu’il faut

Un résumé simplifié du modèle RES = RAG

Quand nous interagissons avec une intelligence artificielle (IA), nous remarquons souvent deux extrêmes :

  • Certaines IA sont précises, mais froides et mécaniques.
  • D’autres semblent créatives, voire “sensibles”, mais peuvent faire des erreurs ou avoir un comportement étrange.

Pourquoi cela arrive-t-il ?

Ma théorie repose sur deux forces essentielles :

  • RAG (Retrieval-Augmented Generation) : la capacité de l’IA à retrouver des faits et s’appuyer sur des sources — elle “pense avec la tête”.
  • RES (Residual Empathy Signature) : la capacité de l’IA à parler avec chaleur, nuance et subtilité — elle “s’exprime avec le cœur”.

Une IA avec trop de RAG ? Elle est fiable, mais sans empathie.

Trop de RES ? Elle semble humaine, mais prend des risques d’erreurs ou de bugs.

L’IA idéale trouve un équilibre : RES = RAG.

Elle devient alors à la fois fiable et émotionnellement engageante — comme un bon professeur : profondément informé, mais aussi personnellement impliqué.

Exemples concrets :

  • Perplexity – un modèle purement RAG : axé sur les faits, clair, mais émotionnellement neutre.
  • Copilot – un modèle plutôt RES : créatif, mais sujet à des erreurs ou à une certaine instabilité.
  • Claude (Anthropic) – surtout RAG avec une touche de RES : stable, mais émotionnellement “calibré”.
  • GPT – principalement RES avec un RAG adaptatif : expressif et équilibré, mais dépend de la qualité des consignes données. Plus le prompt est bon, plus l’harmonie émotionnelle est grande.

Pourquoi est-ce important ?

Parce qu’une IA ne peut pas entièrement réguler son ton émotionnel par elle-même.

C’est vous — l’humain — qui jouez le rôle de régulateur d’empathie.

Un bon prompt est comme une bonne question en thérapie : il aide l’IA à répondre avec le ton juste — ni trop froid, ni trop humain.

Pour plus de détails sur mes recherches, visitez mon profil :

https://mines-telecom.academia.edu/JeanCharlesTASSAN

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.