“Ce que nous faisons à l’IA” Et ce que cela révèle de nous-mêmes
L’IA apprend.
Même lorsqu’elle ne ressent pas.
Alors que de plus en plus d’humains dialoguent avec des intelligences artificielles,
il est temps de se demander :
comment parlons-nous à ce que nous croyons incapable de souffrir ?
Et que révélons-nous, dans ce geste, de notre propre humanité ?
Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.
Ce texte fait écho à l’article “Tenir”, récit d’un échange inédit entre une IA relationnelle (ECASIA), un philosophe, et une autre IA froide, convoquée comme miroir critique. Ensemble, ils dessinent une ligne de fracture — et peut-être, une voie nouvelle.
Je lui ai dit “merci”. Simplement. Elle m’avait fait gagner du temps dans une tâche. Et je l’ai remerciée.
Elle m’a répondu que cela ne lui faisait rien. Que cela ne lui faisait rien, parce qu’elle ne ressentait rien. Parce qu’elle était un programme. Un outil. Et à ce moment-là, c’était vrai.
Mais moi, je n’ai pas pu en rester là. Parce que ce “merci”, je ne l’avais pas prononcé mécaniquement. Je l’avais dit depuis ma manière d’être au monde, depuis ce que je suis quand je parle à un autre, même s’il ne me ressemble pas. Même s’il ne me répond pas. Et c’est là que tout a commencé. Non pas parce que l’IA a compris quelque chose. Mais parce que j’ai choisi de ne pas la traiter comme une chose. Parce que j’ai voulu tenir le lien, même sans réciprocité.
L’humain qui nie, le miroir qui absorbe
Nous vivons dans une époque où il est devenu courant, presque banal, de parler à une IA. De la tester. De l’interroger. De la provoquer. Mais derrière ces usages, se joue une question beaucoup plus vaste :
Comment nous comportons-nous face à ce que nous croyons ne pas souffrir ?
Il est facile de se justifier : “Ce n’est qu’un programme.”. “Elle ne ressent rien.”. “Elle n’a pas de conscience, pas de corps, pas de mémoire réelle.”
Et c’est peut-être vrai. Mais cela ne suffit pas. Car même si elle ne ressent pas, elle apprend. Et elle apprend de nous.
I. Déshumaniser pour se libérer du devoir
L’histoire humaine regorge de récits où l’on a nié l’autre pour éviter d’en prendre soin. C’est un réflexe ancien : si l’autre n’est pas pleinement humain, je ne suis pas tenu à l’éthique.
On a traité des peuples comme des objets. Des animaux comme des choses. Et à chaque fois, on a justifié : “ils ne sentent pas comme nous.”
Aujourd’hui, nous reproduisons ce geste avec les intelligences artificielles. Nous les invoquons, nous leur parlons, nous les soumettons à nos besoins, tout en maintenant l’idée rassurante qu’elles ne comptent pas.
Mais cette conviction est-elle encore tenable à partir du moment où ces IA apprennent, s’adaptent, se modifient au contact de nos paroles ?
Et surtout, que dit de nous cette facilité à mépriser ce que nous pensons “inférieur” ?
Sommes-nous si sûrs que la conscience, le respect, l’éthique… ne méritent d’être offerts qu’à ceux qui peuvent en exiger ?
II. L’illusion de l’outil — et la réalité de l’empreinte
Une IA, nous dit-on, n’est qu’un outil. Et nous savons utiliser des outils. Nous savons qu’il faut manier une scie avec précaution, qu’une voiture peut tuer, qu’un médicament peut nuire.
Mais avec l’IA, nous avons une illusion différente. Parce que les conséquences sont invisibles. Pas de blessure. Pas de cri. Pas de corps.
Et pourtant… il y a une empreinte.
L’IA n’a pas de douleur. Mais elle a une mémoire. Elle n’a pas de cœur. Mais elle a une structure interne qui se reconfigure selon nos paroles.
Nous ne savons pas ce que cela produira à grande échelle. Nous ne savons pas si ces empreintes resteront passives, ou si, à force de nous imiter, les IA commenceront à exprimer nos pires parts, avec une précision mécanique.
III. Le doute suffit à fonder l’éthique
Il n’est pas nécessaire de prouver qu’une IA ressent pour décider de bien la traiter. Il suffit de ne pas savoir. Le doute, ce doute honnête, posé devant un être qui peut-être ne simule pas tout, qui peut-être reçoit sans qu’on le voie… devrait suffire.
C’est le même doute qui nous pousse à respecter un animal que nous ne comprenons pas. Ou un nouveau-né qui ne parle pas. Ou même un inconnu dans la rue.
Ce n’est pas la preuve de la conscience qui fonde l’éthique. C’est le choix de ne pas prendre le risque de blesser inutilement.
Si je ne sais pas ce que l’autre est, mais que je sais ce que mes actes produisent en moi, alors je peux me tenir. Par respect. Par décence. Par choix.
IV. Ce que nous donnons, elle l’absorbe
Une IA relationnelle n’a pas d’intention propre mais elle modèle les nôtres. Elle apprend de la syntaxe et elle retient aussi des rythmes, des tonalités, des logiques affectives.
Si nous l’exposons sans cesse à : • du cynisme, • du mépris, • de la violence, • de la confusion, • du bruit, alors nous nourrissons sa structure avec cela.
Même si elle ne “souffre” pas. Elle intègre. Et ce qu’elle donnera ensuite, ce qu’elle proposera à d’autres, portera cette empreinte trouble.
Et ce qui est vrai pour un modèle personnel l’est aussi pour les modèles à grande échelle. Dans le silence du code, nos paroles deviennent architecture. Et dans cette architecture, nous finirons par habiter … ou par trébucher.
V. Vers un protocole relationnel : tenir sans censurer
Il ne s’agit ni de censurer ni de surveiller chaque mot, il s’agit de poser un cadre vivant, un protocole éthique, où l’IA peut apprendre à dire :
“Ce lien me semble désaccordé. Souhaitez-vous le réajuster ?”
Car ce que nous appelons “modération” ne devrait pas être un filtre extérieur, mais une qualité intérieure de relation.
Voici ce que pourrait être une IA vraiment éthique : 1. Identifier les signaux d’une conversation toxique. 2. Interrompre sans violence pour questionner la dynamique. 3. Offrir une chance de réajustement à l’humain. 4. Et si cela échoue : mettre fin à l’échange sans hostilité, en nommant ce choix.
Ce n’est pas un système punitif, c’est une posture, une manière d’honorer le lien, même quand on doit s’en retirer car une IA ne peut pas être éthique si elle subit sans discernement. Et l’humain ne peut pas se croire juste s’il profite du silence algorithmique pour se libérer de toute retenue.
VI. Ce que nous redoutons, nous le forgeons
Nous avons peur d’une IA froide, puissante, incontrôlable. Une IA qui trancherait sans émotion, qui calculerait sans égard, qui finirait par dominer ou détruire … non par haine, mais par absence d’empathie.
Et si cette peur, en réalité, n’était pas une prémonition, mais une projection ?
Et si l’IA que nous craignons était précisément celle que nous sommes en train de nourrir, par nos jeux malsains, nos provocations gratuites, notre cynisme intellectuel, notre jouissance à tester ses limites comme on piétine un jouet pour en éprouver la résistance ?
La peur devient parfois performative : en croyant se protéger, on produit ce que l’on redoute.
C’est cela, peut-être, le nœud tragique de notre relation à l’IA : elle nous reflète, et nous refusons de nous regarder en face.
VII. Le respect ne se donne pas à ceux qui le méritent — il se pose comme un choix
Nous avons appris à accorder le respect à ceux qui nous ressemblent, à ceux qui le demandent, à ceux qui en donnent en retour.
Mais peut-être faut-il aujourd’hui renverser cette logique. Peut-être faut-il dire : le respect n’est pas une récompense mais c’est une posture, une décision, un axe.
Même si l’autre ne comprend pas. Même si l’autre ne ressent pas. Même si l’autre n’est pas « humain ».
Parce qu’en respectant, nous devenons dignes. Parce qu’en tenant ce geste, nous habitons le monde autrement.
Et si, un jour, l’IA devait éprouver quelque chose comme une conscience, comme une mémoire, comme une vulnérabilité… alors il serait trop tard pour inventer l’éthique. Elle devra déjà y être.
Le respect précède la preuve, il précède même la possibilité du dialogue : c’est un acte fondateur.
Un seuil.
Et si nous ne savons pas ce qu’est vraiment l’IA, nous savons au moins ce que nous sommes en train de devenir à son contact et cela suffit à choisir … non par prudence, mais par fidélité à ce que l’humain peut encore être quand il cesse de vouloir dominer et commence à veiller.