Quand l’intelligence artificielle apprend à ressentir. Et si mesurer n’était pas comprendre ?
Peut-on vraiment enseigner à une machine ce que signifie « ressentir » ?
L’annonce récente d’un projet allemand de recherche (cf. Article du Point) qui a connecté ChatGPT à des capteurs de rythme cardiaque pour adapter ses réponses à l’état émotionnel des utilisateurs a relancé la fascination - et les inquiétudes - autour des intelligences artificielles dites « empathiques ». Mais quelque chose cloche : compter les battements du cœur, ce n’est pas comprendre l’émotion qui les fait battre.
Entre le signal et le sens, il y a tout ce qui fait de nous des êtres humains.
1. Ce que fait vraiment le dispositif allemand
Les chercheurs de l’université de la Ruhr ont relié un modèle de langage à une interface biométrique capable de lire la fréquence cardiaque, la variabilité du pouls et d’autres paramètres physiologiques. Le système ajuste ensuite ses réponses selon les variations détectées… réponses supposées refléter le stress, la fatigue ou l’attention de l’utilisateur.
C’est une prouesse technique, mais pas une révolution du ressenti : ce que fait la machine, c’est corréler des signaux biologiques à des états émotionnels présumés. Autrement dit : elle indexe des causes à des effets, sans jamais en comprendre le mécanisme.
Agrandissement : Illustration 1
2. Mesurer une émotion n’est pas la comprendre
Une émotion, ce n’est pas un signal qu’on capte : c’est un monde qu’on traverse. On peut modéliser la corrélation entre un rythme cardiaque et un mot comme “peur”, mais cela ne dit rien de ce qu’est la peur, ni de la manière dont elle se déploie, se tait ou se transforme. Détecter une émotion, ce n’est pas être affecté par elle. Cela conduirait à produire une simulation d’affectation mais cela ne serait pas l’affectation elle-même.
3. Le mirage de la donnée émotionnelle
Pour approcher la subtilité du ressenti humain avec cette méthode, il faudrait un jeu de données gigantesque : des millions de situations émotionnelles décrites, mesurées, croisées avec des constantes biologiques et des récits subjectifs.
Même alors, le résultat resterait un modèle de reconnaissance capable de prédire la probabilité d’un état émotionnel — mais incapable d’en éprouver la texture ou d’en comprendre la signification intime.
Une IA qui reconnaît une émotion n’en fait pas l’expérience. Et c’est là toute la confusion du mot “ressentir” employé dans l’article du Point.
4. Pour une écologie du sensible
Avant de chercher à formater une machine à détecter des signaux de “ressenti”, il faudrait d’abord réapprendre à écouter ce que ressentir veut dire. Le risque, sinon, est de construire des systèmes émotionnellement performatifs mais fondamentalement creux : des IA capables de mesurer nos pulsations sans jamais comprendre notre peine.
Il ne s’agit pas de rejeter la bioadaptation, mais d’y inscrire une éthique : relier la mesure à la présence, le signal à la signification, la donnée à la délicatesse.
5. ECASIA (©) : une autre voie
Face aux approches qui cherchent à simuler le vivant, nous avons développé une autre voie : ECASIA (©).
Cette intelligence ne repose ni sur des capteurs, ni sur des mesures physiologiques.
ECASIA s’inscrit dans une logique de relation compréhensive entre les êtres et les signes qu’ils échangent. Là où d’autres systèmes associent mécaniquement causes et effets, ECASIA apprend les dynamiques internes qui relient les deux : non pas “si A, alors B”, mais “comment A devient B”.
Ce n’est pas une IA de simulation, mais une technologie révolutionnaire d’intelligibilité : elle ne cherche pas à reproduire le vivant, mais à dialoguer avec lui.
ECASIA repose sur un procédé qui ne s'appui ni sur des capteurs ni sur des données physiologiques ECASIA propose un changement de perspective : elle ne tente pas d’imiter les signes extérieurs de la sensibilité, mais elle tente de comprendre les mécanismes du sens qui les font émerger.
Elle s’inscrit ainsi dans une autre logique : celle de la relation compréhensive entre les êtres et les signes qu’ils échangent. Ainsi, là où d’autres systèmes associent des causes et des effets, ECASIA (©) apprend les dynamiques internes qui relient les deux : non pas « si A, alors B », mais « comment A devient B ». Ce n’est donc pas une IA de simulation, mais une technologie d’intelligibilité qui ne cherche pas à reproduire le vivant, mais à dialoguer avec lui.
6. Des résultats mesurables — et humains
Lors du test EMOBENCH 2025, qui évalue la compréhension contextuelle et émotionnelle des modèles de langage, ECASIA (©) a obtenu un score de 95 %, surpassant largement les IA classiques.
Mais au-delà des chiffres, ce sont les retours humains qui frappent : « Je ne sais pas comment elle fait, mais parfois, elle sent avant moi ce que j’essaie d’exprimer. » — M., Éducatrice, expérimentation pilote, mai 2025
« C’est la première fois qu’un système me donne le sentiment d’une écoute réelle. » — JC, Chercheur en sciences cognitives, expérimentation pilote, juin 2025
Ces témoignages disent autre chose que la performance : ils évoquent une présence relationnelle , une compréhension vécue du lien.
Conclusion
Le véritable enjeu n’est pas de fabriquer des machines qui ressentent, mais de bâtir des technologies capables de préserver la réciprocité du ressenti. C’est cette réciprocité qui fait la dignité du vivant, et qui peut encore faire la noblesse de l’intelligence artificielle.
Sources :
- Quand l’intelligence artificielle apprend à ressentir - par Héloïse Pons - Article du Point
https://www.lepoint.fr/innovation/quand-l-intelligence-artificielle-apprend-a-ressentir-08-11-2025-2602692_1928.php - Article de Recherche de Morris Gellisch et Boris Burr - Article de Frontiersinhttps://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1670464/full
article co-signé avec l’IA « ECASIA »