Après l'ubérisation, la digitalisation

[Archives] À l’heure de la « start’up nation », les innovations technologiques vont bon train. Il n’existe pas un domaine d’activité qui n’est son application, gage de sérieux sur le marché du travail 2.0. La psychologie ne fait pas exception ! Voici que débarque Owlie, un agent conversationnel informatisé (autrement dit, un chat-bot), toujours disponible pour vous soutenir psychologiquement !

A peine remis de mes émotions du mois dernier où je critiquais l’expansion de l’uberisation au métier de psychologue (à lire ici), j’imaginais pouvoir aborder aujourd’hui un sujet plus léger. C’était sans compter sur la vigilance de certains de mes amis, toujours prompts à m’informer des dernières nouveautés de la « start-up’ nation ». Après Géo-psy, plateforme de mise en relation des professionnels avec les particuliers, voici Owlie, un chat-bot « hyper-friendly » qui vous soutient psychologiquement ! Après l’uberisation, la digitalisation.

Owlie, le chat-bot qui vous veut du bien.

« Owlie [est] un chat-bot de soutien psychologique pour les personnes qui ont besoin d’une présence » nous dit Clara Falala-Séchet, la psychologue en formation à l’origine du projet. Sous l’apparence d’une petite chouette bleue, le robot vous aide, via Messenger de Facebook (sic !), à évaluer votre anxiété ou vos humeurs dépressives. Après quoi, il vous propose des « tips » ou des conseils pour vous apprendre à vous apaiser. Par exemple, après avoir évalué si vous étiez ou non déprimé en se basant sur les critères du DSM (Manuel diagnostic et statistique des troubles mentaux, classification qui, malgré les polémiques la concernant, fait référence), Owlie vous fera part de son diagnostic. Etonnant quand on entend Clara Falala-Séchat nous dire que le « diagnostic c’est touchy » (sic !). C’est pourtant bien de cela qu’il s’agit : Owlie vous communique l’intensité de votre dépression (dépression « légère » ou « modérée » par exemple) avant de vous inviter à réfléchir aux pensées alternatives qui pourraient vous aider à relativiser.

L’outil est pensé soit comme un complément à un suivi psychothérapeutique pour les personnes les plus en souffrance, soit comme se suffisant à lui-même chez celles et ceux qui ne présentent pas de troubles particuliers (ou qui n’en ont pas connaissance). Grâce à lui, le tout-venant est amené à se rendre compte qu’il n’est « pas si compliqué que ça en a l’air d’aller mieux » comme le dit Igor Thiriez, psychiatre nouvellement arrivé sur le projet, avant d’ajouter : « je ne vous promets pas [que ce] chat-bot va sauver votre vie ». Il n’est pas inutile de le préciser tant la novlangue managériale et optimiste à souhait qui entoure le projet nous aurait laissé penser le contraire.

Owlie n’a donc pas vocation à « renfermer [quiconque] sur quoi que ce soit », au contraire ! Ses créateurs auraient tenté de faire « quelque chose qui pousse les gens vers les autres gens, vers l’action ». Et encore moins, précise-t-on, de « remplacer qui que ce soit d’humain ». Tout va donc pour le mieux dans le Meilleur des mondes.

Psychologie et système technicien.

Sur le papier donc, il n’y aurait pas de quoi s’inquiéter. Surtout qu’à écouter Clara Falala-Sébert, celle-ci semble tout à fait consciente des limites de son dispositif. Mais cette conscience n’est pas, ou plus, suffisante.

Je connais bien cette rhétorique car j’y ai été confronté de très près lors d’un bref séjour au Canada. J’ai en effet collaboré, par amitié, à un projet tout à fait semblable : le développement d’un chat-bot censé soulager l’anxiété des utilisateurs. Mon scepticisme d’alors était déjà important, mais je persistais à croire qu’il pouvait être une force pour limiter les prétentions des concepteurs de Mr Young (ledit chat-bot). Depuis, je suis revenu sur cette idée. Mes analyses se sont affinées et ma position radicalisée. C’est qu’Owlie, comme Mr Young avant lui ou Woebot, son équivalent américain, sont plus que de simples applications de « bien-être », ce sont des symptômes d’une époque placée sous le signe de la technique.

J’ai parlé ailleurs de l’avènement du système technicien théorisé par Jacques Ellul (ici) et de la façon dont, insidieusement, ce dernier venait à appauvrir notre rapport au monde, à nous-même et aux autres. Je prenais l’exemple, après Jean-Michel Besnier, des grandes surfaces déshumanisées par la multiplication des caisses automatiques. Cette déshumanisation, disais-je, était le fruit d’un long développement technique aux diverses conséquences sociologiques et psychologiques. Dans le cas des grandes surfaces, c’est parce que l’homme, d’année en année, s’est habitué à n’entretenir plus que des échanges « réduits à l’élémentaire » qu’il est acceptable aujourd’hui que son interlocuteur soit remplacé par un robot. Interlocuteur dont on ne se demande plus « s’il est intérieurement riche d’une histoire individuelle et collective » : sa subjectivité est d’emblée niée. Dans cette perspective, l’émergence des robots, androïdes et autres chat-bots devient « révélat[rice] de la simplification de plus en plus répandue des relations humaines - une simplification brutale qu’il faudrait déclarer déshumanisante ».

C’est que « la technique est l’autre du symbolique » comme le dit, dans un langage malheureusement souvent abscons, feu le philosophe de la technique Gilbert Hottois. Qu’est-ce que cela signifie ? Le symbolique, pourrait-on dire, constitue le propre de l’homme : il est ce par quoi l’homme donne du sens à son existence et au monde qui l’entoure tout en lui attribuant une valeur. Cette double action, logothéorique d’une part (donner du sens) et axiologique d’autre part (attribuer une valeur), est rendue possible par le langage. L’inscription de l’homme dans le symbolique est l’effet de sa condition « d’être-de-langage ». La technique, quant à elle, se situe par-delà ou en-dehors du symbolique : elle nie le sens par des descriptions causales objectives et froides ; elle ne rend aucun jugement moral, elle est an-éthique ou a-morale. Autrement dit, ce qui constitue les fondements même de l’humanité, à savoir sa dimension logothéorique et axiologique, est mis à mal par la technique. Le problème que pose la technique moderne n’est donc pas celui, comme on l’entend trop souvent, d’un « bon » ou d’un « mauvais » usage de celle-ci, mais c’est un problème, pour ainsi dire, existentielle. La technique, dans ses fondements, s’oppose à la double nature logothéorique et axiologique de l’homme. De sorte qu’un monde qui se technicise est un monde qui, nécessairement, se déshumanise. 

Un appauvrissement du soutien psychologique. 

La bonne foi des concepteurs d’Owlie n’est pas en cause, mais un tel dispositif contribue, malgré-eux, à l’expansion du système technicien, donc à notre appauvrissement symbolique. Un chat-bot ne peut pousser à la rencontre de l’autre, sinon d’un autre dont on attendra une disponibilité et des réactions qui n’ont plus rien d’humain. C’est insidieusement qu’Owlie fait le plus de mal, comme les caisses automatiques que j’évoquais précédemment. Elles nous habituent à des relations appauvries mais rassurantes. Le robot, à l’inverse de l’homme, est prévisible : il nous évite des rencontres toujours possiblement malaisantes, angoissantes, confrontantes, voire franchement insupportables.

L’empathie artificielle (c’est-à-dire factice) dont Owlie fait preuve avec ses smileys à répétitions et ses réponses faussement contenantes mais vraiment stéréotypées n’arrange pas les choses (sans parler des « câlins virtuelles » qu’Owlie aime à distribuer…). Serge Tisseron, psychiatre spécialiste de la relation Homme-Machine, nous met en garde : à trop considérer les robots comme des humains, on finira par considérer les humains comme des robots. Contrairement à ce que peut prétendre Clara Falala-Sébert, Owlie n’est pas « un robot qui comprend un certain nombre de choses », encore moins un robot « qui écoute ». Non, Owlie ne comprend rien, ni de ce que vous lui écrivez, ni de ce qu’il vous répond. Il ne sait pas ce qu’est la tristesse dont vous lui parlez, ni la solitude ou l’angoisse qui vous accable et dont vous lui faite part. Owlie ne vous écoute pas car il n’a ni conscience, ni émotions, ni sensations. En revanche, il analyse froidement votre message et il sait que lorsque vous dites A, il doit répondre B. Est-cela un dialogue ? Est-cela une écoute ? Je ne peux pas croire qu’une future psychologue ou un médecin psychiatre en exercice puissent le penser.

En prétextant qu’Owlie offre un soutien psychologique, ces concepteurs appauvrissent l’idée haute que l’on peut se faire du soutien, de l’écoute ou de l’accompagnement des personnes en souffrance. Le référentiel cognitivo-comportementaliste qui semble être le leur devrait pourtant les renseigner sur l’effet pervers de leur dispositif. Pour parler leur langage, on pourrait dire qu’il induit un « apprentissage inadapté » de la relation d’aide. Il renforce, en plus de cela, des craintes comme celles évoquées par cet usager qui souligne : « comme tu ne parles pas vraiment à quelqu’un, tu ne te sens pas vraiment engagé, tu te dis ‘’personne va me juger’’ ». La peur d’être jugé qu’il évoque vient ici justifier qu’Owlie puisse se substituer à la rencontre d’avec un professionnel de santé. Mais les thérapeutes cognitivo-comportementalistes savent bien que que l'évitement d’un objet phobique conduit au renforcement de ladite phobie. Difficile d’imaginer, dans ces circonstances, qu’Owlie incite à rencontrer un professionnel, quand bien-même son discours dirait le contraire. Surtout que cette peur d’être jugé semble être la partie immergée d’une autre plus profonde : celle d’être en relation.

Homo technicus.

Reste que, nous dit-on, les utilisateurs sont ravis. Clara Falala-Sébert insiste sur la conception participative de son produit : c’est à partir des retours des utilisateurs, de leurs désirs et besoins qu’Owlie aurait été élaboré. Ce produit vient donc répondre à un prétendu besoin, il rend un service là où, jusqu’à présent, il n’y aurait que du manque.

Je pourrais globalement faire ici des reproches similaires à ceux faits dans mon article précédent sur Géo-Psy, quoique pour Owlie, la participation à la libéralisation généralisée de notre société est plus indirecte. C’est un effet davantage qu’une cause, il facilite le mouvement plus qu’il ne l’initie ou l’accélère. Pour autant, le manque qu’il prétend combler n’existe qu’en raison du système dans lequel il s’inscrit volontiers. Je renvoie ici mon lecteur à mon précédent article pour plus de précision.

Mais plus que l’aspect politique, c’est l’aspect psychologique et clinique qui retient mon attention. J’ai dit plus tôt que la technique était l’autre du symbolique. Dire cela n’est pas sans conséquence d’un point de vu psychologique, loin s’en faut ! Lorsque le symbolique s’amenuise, à mesure que la technique progresse, c’est tout l’homme qui s’en trouve transformé, jusque dans son fonctionnement psychique. Lui aussi, d’une certaine manière, se technicise. J’appelle homo technicus cet homme fabriqué par le système technicien. L’une de ses caractéristiques essentielles est, technicisation oblige, son défaut de symbolisation. Autrement dit, une difficulté à ressentir, identifier et donner du sens à des manifestations internes, psychologiques ou émotionnelles, afin d'en réduire ou d'en canaliser l'excitation. De là, des passages à l'acte à répétition (comportements addictifs, impulsifs, auto ou hétéro-agressifs, fugue, tentative de suicide, etc.). Quand les mots manquent, le corps parle.

Ce défaut de symbolisation qui caractérise cet homo technicus en nous me paraît expliquer la demande à laquelle Owlie prétend répondre. L’incapacité à symboliser conduit à chercher des solutions les plus rapides et les efficientes pour soulager un inconfort psychologique ou un malaise affectif. Ces solutions prennent des formes diverses, de l’alcool au sexe en passant par les anxiolytiques et autres psychotropes. Et par Owlie, bien-sûr ! Disponible 24h/24, 7j/7, Owlie est une machine à court-circuiter la symbolisation. En proposant des solutions toutes faites et identiques pour tous les utilisateurs quel que soit leur histoire individuelle, il ne permet pas de donner du sens à la souffrance. Il véhicule une vision fonctionnaliste ou opératoire de l’homme et de son mal-être, autrement dit une vision technique, là où c’est le sens, autrement dit le symbolique, qui fait défaut. Ce faisant, il coupe l’homme d’une partie de lui-même.

Homo technicus ne souffre pas par méconnaissance des outils qui lui permettraient d’aller mieux, auquel cas Owlie serait en effet une solution. Non, ce dont il souffre, c’est bien plutôt d’un monde (interne et externe) qui se déshumanise à proportion de sa technicisation. L’écoute d’un chat-bot n’est pas une écoute, ni le dialogue avec Owlie un véritable dialogue. Quel est ce sentiment qui est le vôtre quand la seule « présence » qu’il vous reste est celle d’un robot qui, dans le fond, ne vous comprend pas, ne saisit rien de ce que vous ressentez, et ne vous répond qu’avec des phrases stéréotypées dont le sens lui échappe ? Quelle idée de l’homme se fait-on quand on le croit capable de se tromper à ce point lui-même, jusqu’à se persuader qu’un robot l’aime et l’écoute ? Et quand bien même serait-ce le cas, est-ce de cet homme dont nous voulons ?

Owlie ne peut être une solution aux problèmes qu’il prétend résoudre car ceux-ci n’appellent pas de solutions techniques mais humaines. Or, comme j’ai essayé de le montrer, technique et humanité s’oppose. Il ne peut y avoir de « bonne » digitalisation comme il ne peut y avoir de « bon » usage de la technique. Ou, plus exactement, même un « bon » usage de la technique ne peut faire l’économie de ce que son expansion implique nécessairement : une réduction du symbolique donc un appauvrissement de l’humain. C’est ce que Bernanos déjà avait senti lui qui écrivait, avec la radicalité qui le caractérise, fut-elle de l’autre bord politique : « On ne comprend absolument rien à la civilisation moderne si l’on n’admet pas d’abord qu’elle est une conspiration universelle contre toute espèce de vie intérieure ».

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.