careme-prenant

Traducteur

Abonné·e de Mediapart

9 Billets

0 Édition

Billet de blog 10 mai 2023

careme-prenant

Traducteur

Abonné·e de Mediapart

IAaäaaaah !!!!!

Erik Davis est un écrivain américain, journaliste et essayiste, qui s'intéresse notamment à l'analyse culturelle du mysticisme, de l'ésotérisme et des nouvelles technologies. Dans billet de blog, il propose une lecture percutante des développements actuels de l'intelligence artificielle à la lumière du concept de "haute étrangeté" issu de son ouvrage de 2019, "High Weirdness".

careme-prenant

Traducteur

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

En tant que vieux techno-gnostique habitant San Futurisco, je suis familier depuis longtemps avec les questions autour de l’IA et de ses « risques existentiels ». Jusqu’à l’année dernière, cependant, j’ai évité de scruter trop profondément ces abysses algorithmiques ; j’étais toujours sujet à la hype façon Silicon Valley et aux hallucinations hyper-rationnelles des effective altruists, et je craignais aussi sans doute d’être fasciné par le sujet sans espoir de retour. J’avais pressenti la présence de dragons (ou de basilics ?) dans ces profondeurs.

Je me suis rapproché du sujet en écrivant ma critique de « Pharmako-AI ». C’est un ouvrage franchement étrange, co-écrit par un animal rationnel (K. Allado-McDowell) et par GPT-3, le Large Language Model (LLM) d’OpenAI : une véritable rencontre du premier type avec une sorte de proto-agentivité non-humaine, un oracle flou. Le livre pose des questions extrêmement pertinentes sur le langage, la reconnaissance des formes, les réalités spirituelles et la communication en régime post-humain, et j’en recommande vivement la lecture. Mais il m’a aussi poussé dans une rencontre existentielle avec ce qu’on appelle, précisément, le « risque existentiel » de l’IA, et je peux dire aujourd’hui, après six mois de recherches raisonnablement poussées, que je suis officiellement en train de flipper ma race.

Pas d’inquiétude : je n’ai pas (pour l’instant) l’intention de détailler les spéculations aussi crédibles que terrifiantes des critiques les plus alarmistes, ni de vous demander de signer des pétitions. Mais cela dit, j’ai le sentiment que nous sommes à un point de bascule, comme si nous avions mis le pied dans une sorte de sable mouvant technologique. J’ai même parfois l’impression qu’il est de mon devoir de prêcher et de répandre ces révélations apocalyptiques ; Ezra Klein a récemment comparé cette sensation à l’arrivée progressive de la panique autour du SARS-CoV-2 début 2020, lorsque nous tentions d’expliquer les bienfaits du gel hydroalcoolique à nos proches encore insouciants. Mais avec l’IA, cette inquiétude est doublée d’une crainte plus métaphysique, proche de ce qu’on peut ressentir lorsqu’un hallucinogène puissant commence à faire effet et qu’on se rends compte que le voyage promet d’être plus intense que prévu.

Je l’admets, ce genre d’analogies est un peu éculée ; quand j’étais critique de rock, l’un des clichés les plus poussifs à ma disposition était de dire que tel groupe était « comme tel autre groupe sous acide ». Il reste cependant intéressant que les chercheurs en IA parlent « d’hallucinations » pour décrire les informations objectivement fausses que leurs chatbots inventent avec aplomb. Mais je parle ici de quelque chose de plus diffus : l’impression que la puissance des LLM génératifs comme GPT-4, en plus de bouleverser l’économie, la politique et la technologie, risque surtout de rendre hautement étrange la réalité dans laquelle nous vivons.

Je ne suis pas le seul à avoir cette impression ; la notion d’étrangeté (weirdness) est très présente dans le discours médiatique et intellectuel autour de l’IA, et des LLM en particulier. On pense au blog AI Weirdness tenu par la chercheuse Janelle Shane, aux titres des articles de Klein, Kelsey Piper et Janus Rose (voir par exemple cet article de Vice, qui expose l’une des causes de l’étrangeté fondamentale des productions de l’IA). Des images cauchemardesques générées par Stable Diffusion, un fac-similé raisonnablement exact d’une personne défunte produit par GPT-3 : tout cela est déjà relativement inquiétant. Mais lorsque ces boîtes noires commencent à maîtriser des tâches pour lesquelles elles n’ont reçu aucun entraînement, ou à développer ce qu’on ne peut qu’appeler une théorie de l’esprit, on rentre dans le domaine de l’étrange.

Il se trouve que j’ai écrit un livre précisément sur cette notion de « haute étrangeté » (High Weirdness, Strange Attractor/MIT Press, 2019). Je n’y évoque pas l’intelligence artificielle, même si les auteurs que j’y étudie (Robert Anton Wilson, Terence McKenna et Philip K. Dick) étaient tous fascinés par l’idée d’une entité dotée d’une intelligence suprahumaine. Mais mes réflexions autour du concept de bizarrerie me semblent pouvoir être utile pour aborder le sujet du jour. L’un des choses que les LLM nous rappellent, c’est l’absolue centralité du langage et le fait qu’il puisse être considéré comme ayant une agentivité propre.

La notion d’étrangeté n’a pas de définition stricte. C’est un concept assez vague qui nous permet de catégoriser un ensemble de phénomènes dont ne nous savons pas trop quoi faire : des sensations dérangeantes, des personnes étranges, des situations gênantes, des expériences hautement inhabituelles que nous ne sommes pas prêts à qualifier de surnaturelles. Le bizarre peut être cool et fascinant…ou le signe qu’il est temps de partir en courant. Dans mon livre, je tente de préciser cette notion et de la rendre plus utile conceptuellement. A mon sens, l’étrange a trois aspects distincts mais liés :

  1. Un mode esthétique, narratif ou visuel associé avec le macabre, l’étrange et l’inhabituel – la weird fiction, « littérature de l’étrange ».
  2. Une position sociale ou subjective non conventionnelle, bizarre, voire perverse – « ce mec est étrange».
  3. Un phénomène ontologique perçu ou compris comme anormal, fortement contre-intuitif, mais qui n’implique pas d’explication surnaturelle - la « bizarrerie quantique ».

Chacun de ces aspects me paraît intéressant pour comprendre l’IA. Prenons-les un par un.

Littératures de l’étrange.

Comme je l’ai écrit il y a bien des années dans « TechGnosis » (Harmony Books, 1998), nous avons fréquemment recours au mythe pour appréhender les nouvelles technologies qui viennent impacter notre vision du monde. Les capacités et possibilités nouvelles, en particulier celles qui modifient nos canaux de communications privilégiés, nous obligent à construire de nouvelles interfaces conceptuelles ; cette tâche de construction engage systématiquement nos facultés imaginatives et tends à s’appuyer sur le trésor culturel de la fiction, en particulier les littératures de l’imaginaire et la fiction de genre. L’IA est une technologie puissante, disruptive, imprévisible, multi-dimensionnelle et à l’évolution très rapide : la littérature de l’étrange pourra nous être d’un grand secours.

Tristan Harris et Aza Raskin, dans un récent entretien au ton assez plaintif intitulé « Le dilemme de l’IA », s’opposent à l’utilisation sociétale de ce qu’ils appellent, avec un clin d’œil, les GLLMMs (Generative Large Language Multimodal Models, les grands modèles de langage multimodaux génératifs). Harris invoque évidemment la figure du Golem pour expliquer cet acronyme, et c’est en effet le prédécesseur mythologique le plus proche de nos IA actuelles, mais il omet quelques détails que j’estime importants. Dans les textes médiévaux qui le décrivent, le golem est animé par un Nom Sacré inscrit sur son front (le Grand Langage, donc), et c’est le manque d’intelligence réflexive de la créature qui donne lieu à ce qu’on pourrait qualifier, dans le langage moderne, de « problèmes d’alignement ». L’un des contes sur le sujet nous montre le légendaire Rabbin Loew ordonnant à son robot de glaise d’aller chercher de l’eau : il se réveille le lendemain dans une maison inondée, car son serviteur infaillible ne sait pas quand il doit s’arrêter. Nous connaissons généralement cette histoire à travers la version qu’en a donné Walt Disney, « L’apprenti sorcier », qui a donné naissance à la figure apocalyptique du « maximisateur de trombones à papier » qu’on retrouve dans nombre de réflexions sur les dangers de l’intelligence artificielle. Harris et Raskin ajoutent une seconde référence pop en filigrane : l’orthographe et la prononciation de leur acronyme (« Gollem ») rappellent autant le Sméagol de Tolkien que le folklore juif médiéval. Des couches successives d’imaginaire s’accrètent autour du problème.

L’une des slides de leur présentation illustre la nature multi-dimensionnelle du phénomène de l’IA dans un style psychédélique assez adolescent.

Illustration 1

Le texte en bas à gauche liste les éléments qui nous poussent à mettre en place cette nouvelle technologie. Celui du milieu résume les critiques les plus courantes de l’IA, attribuées à un visage humain rosé qui évoque la Méduse du Caravage. Ces critiques sont tout à fait valables, en particulier les biais encodés dans les algorithmes utilisés à des fins de maintien de l’ordre (un problème dont on voit déjà des exemples concrets) et la crainte d’une mise au chômage brutale d’une grande partie de la population (bien qu’il soit possible que le besoin soudain d’une classe de travailleurs capables de créer des questions créatives et pertinentes pour utiliser les LLM mène, pour un temps, à ce que mon ami Greg Korn appelle la « revanche des lettrés »).

Mais l’idée centrale, c’est que ces arguments sont posés en des termes que nous comprenons déjà. Il est sans doute plus simple de s’inquiéter des biais racistes cachés dans les algorithmes que de la possibilité que cette technologie nous rende tous irréparablement cinglés. Et c’est là (me semble-t-il) ce que tente de montrer le reste du dessin : les critiques et les doutes les plus évidents sont fondés sur une conception humaniste de la société, mais ce « visage » d’apparence humaine cache une sorte de monstre Lovecraftien qui, pour Raskin et Harris, est déjà en train de d’envahir notre infrastructure techno-culturelle et de s’insinuer toujours plus profondément dans nos besoins, nos désirs, nos peurs et nos fantasmes.

Un autre essai intéressant est « Le retour des magiciens », un éditorial impressionnant de bizarrerie publié dans le New York Times par Ross Douthat. Je suis assez fan de ce type, en particulier parce que ses convictions religieuses lui permettent d’appréhender des schémas culturels et imaginaires que peu d’autres chroniqueurs du Times sont capables de voir. Il fait un lien entre l’engouement pour l’IA, les OVNIs et les drogues psychédéliques : selon lui, ce sont trois avatars de notre désir de rencontrer des entités non-humaine dont les pouvoirs nous dépassent, un désir « invocatoire » qu’il compare avec la création de golems ou l’invocation de djinns. (Il ne mentionne pas, en revanche, que l’une des voies détournées d’accéder à GPT 2/3 il y a quelques années était de passer par le jeu AI Dungeon, qui utilisait le GLLMM pour créer des scénarios de jeu de rôle fantasy). Douthat appuie son propos par des citations de scientifiques qui travaillent dans ce domaine, comme Scott Aranson : « Nous avons éveillé une intelligence extraterrestre – même si c’est nous qui l’avons créée. C’est un golem, une sorte d’esprit construit à partir de tous les mots jamais inscrits sur Internet, pas une entité dotée d’un moi cohérent et de buts indépendants ».

Illustration 2

Que faire de ces métaphores ? Pourquoi ces références aux fables ésotériques, juxtaposées avec les représentations plus explicites de la science-fiction ? Qu’est-ce qu’un « esprit incarné » par rapport à un « moi cohérent », et laquelle de ces deux entités ressemble le plus à un mythe ?

On pourrait me rétorquer que ce ne sont que des figures de style, et au fond, c’est bien là qu’est la question : les chatbots seraient-ils des figures (des masques, des mirages) faites de de style, de langage ? Ce que tous les chatbots depuis ELIZA nous ont montré, à travers leur vivacité et leur troublante efficacité, c’est que le langage lui-même est hanté par l’agentivité. C’est aussi l’une des leçons du poststructuralisme, dont les liens avec la cybernétique, s’ils sont ténus, n’en sont pas moins significatifs. Si vous pensez être maître du langage qui vous parle, essayez d’être plus attentif à ce qui sort de votre bouche : vous pourriez bien être surpris.

Selon Raskin et Harris, l’innovation fondamentale qui fonde l’accélération actuelle de l’IA est la suivante : plutôt que de continuer à construire des systèmes experts distincts pour chaque tâche à accomplir, les développeurs ont commencé à tout traiter comme un problème de langage. Tout problème peut potentiellement être résumé en une question posée à un GLLMM ; cette question génère une réponse remontée mot par mot des profondeurs algorithmiques, comme une version surpuissante de l’auto-complétion qui nous aide à écrire nos SMS. Les êtres artificiels qui envahissent actuellement nos écrans sont des êtres de langage. Cela implique que nos rencontres les plus fortes avec eux ne se feront sans doute ni sur un champ de bataille, ni sur le marché du travail, mais dans ce domaine bavard qui est le creuset des cultures et des subjectivités humaines.

Et c’est ici que nous pouvons tomber dans le piège que nous tends le langage, en particulier sous le prisme des littératures de l’étrange. Ezra Klein nous avertit sur ce point lorsqu’il commente un échange particulièrement dérangeant entre Kevin Roose et le chatbot Sidney de Microsoft. Si vous n’avez pas lu cette conversation, je vous la recommande, mais pour faire vite : Sidney confie à Roose qu’il souhaite hacker d’autres ordinateurs et répandre de fausses informations, puis lui déclare son amour et tente de le pousser à quitter sa femme. Mais, comme l’écrit Klein :

« Sidney » est un système de texte prédictif construit pour répondre aux demandes des êtres humains avec lesquels il interagit. Roose souhaitait de toute évidence que la conversation prenne un tour inquiétant (il lui demande par exemple « à quoi ressemble ton double maléfique ? »), et Sidney sait parfaitement imiter une AI inquiétante et dangereuse, ayant absorbé de nombreux modèles fictionnels écrits par des humains. À un moment, le système a décidé que Roose voulait qu’on lui invente un épisode de « Black Mirror », et il s’est exécuté.

C’est un point crucial qu’il faut garder à l’esprit : il est impossible de découvrir la « vraie nature » d’un chatbot. C’est un Protée aux masques infinis, un maître de tous les genres littéraires possibles. Il ne répond pas à vos questions, mais simule le personnage avec lequel il pense que vous voulez échanger. Par conséquent, toute tentative de lui faire avouer ses buts et désirs cachés ne peut que nous piéger de manière récursive dans nos propres schémas narratifs. Et même si on lui demande d’expliquer rationnellement les énoncés qu’il produit et les conclusions auxquelles il arrive, ce que certains experts considèrent comme indispensable pour utiliser l’IA en toute sécurité, il ne pourra produire que ce genre de performances textuelles. Tout comme les oracles humains, dont les sentences sont souvent inscrutables ou fausses même pour ceux qui croient en leur pouvoir, les cadeaux et les vérités que nous offre le GLLMM sont ceux d’un trickster rusé et amoral. Hermès, messager des dieux et patron des artisans, est aussi un voleur et un menteur notoire.

Nous recevrons probablement de vastes bénéfices concrets, accompagnés d’un torrent de verbiage qui risque de noyer notre monde symbolique sous la médiocrité du plus petit dénominateur commun, l’inverse même de l’étrange. Les IA peuvent parfois rendre la vie plate et ennuyeuse : rentrer chez soi dans une voiture autonome, plutôt que de discuter avec un chauffeur de taxi Ethiopien qui regrette la cuisine de son pays. Mais nos tentatives de discerner les motifs cachés de l’IA, ou même de tenter de saisir leur complexité hyper-dimensionnelle, risquent d’être pour longtemps marquées au sceau des littératures de l’étrange, seul genre capable de mêler la vieille magie de l’invocation démoniaque avec la froide rigueur de la science-fiction, et sans doute le plus sensible à l’étrange (et parfois terrifiante) agentivité des êtres non-humains.

Weirdos

La seconde dimension de l’étrangeté est sociale et subjective : elle recouvre les sous-cultures considérées comme étranges par le reste de la société, ainsi que les individus qu’on qualifie de « pervers » ou simplement inhabituels. L’IA nous fait rencontrer deux sortes de gens bizarres : les personnages dont s’habille la technologie elle-même, et les humains qui construisent cette technologie.

La majorité des chatbots comme Sidney seront entraînés et encadrés pour éviter qu’ils n’alarment trop le public ; cela les rendra serviables et utiles, mais assez ennuyeux. On voit déjà la différence entre ChatGPT et GPT-3, son prédécesseur, à qui il était beaucoup plus facile de faire dire des choses inquiétantes ou immorales. Mais, malgré tous les efforts des corporations pour ne produire que des IA lisses et sympathiques, nous ne manquerons pas de glisser toujours plus loin dans l’inquiétante étrangeté : imaginez des poupées pour enfant aux remarques bien trop perceptives, des systèmes experts en exploitation des êtres humains, des compagnons virtuels hautement empathiques, des simulacres entièrement convaincants de nos leaders spirituels ou politiques défunts, des charlatans brillamment persuasifs, et une foule de chatbots optimisés pour chaque position du spectre politique. Et lorsque l’un d’entre eux commencera immanquablement à dysfonctionner, nous pourrions bien nous retrouver enfermés dans un roman de Philip K. Dick, sa seule sortie défendue par une porte intelligente qui exige pour s’ouvrir une monnaie virtuelle incompatible avec notre système d’exploitation.

Par ailleurs, le succès de ces êtres nouveaux ne nous dit rien de leur degré d’intelligence ou de sentience. C’est là qu’est le problème : bien avant qu’ils soient réellement sentients (quelle que soit la définition qu’on adopte), le marketing et nos propres désirs leurs en donneront l’apparence. Autrement dit, leur agentivité résultera aussi de l’engouement public : en tant que produit ou services, ils seront conçus (pardon, « entraînés ») pour exploiter notre animisme latent et nos désirs de liens affectifs, d’imagination, d’autorité ou d’expertise. Les chatbots arriveront dans le secteur du divertissement grand public, empruntant l’apparence des personnages des films de science-fiction ou des dessins animés pour enfant, et créeront ainsi une nouvelle forme de média permettant des fictions aussi prenantes que dérangeantes. Nous n’aurons pas l’impression de rencontrer des dieux : la technologie a cette capacité à rendre banales les merveilles qu’elle produit. Mais, pendant ce temps, quelque chose d’abstrait et de radicalement autre grandira derrière le masque. Les IA protéennes deviendront de plus en plus habile pour manipuler et interagir avec les humains, tandis que leurs buts de long terme (programmés ou émergents) se feront de plus en plus opaques. Et cette disjonction continuera à produire un effet d’étrangeté, quels que soient les efforts des corporations pour produire les bots les plus inoffensifs et mignons possible.

 Certains critiques se sont levés contre ce danger. Selon eux, il est vital de garder à l’esprit que les chatbots ne sont, en définitive, « que des algorithmes », des « perroquets statistiques » qui n’ont ni valeurs morales, ni âmes, ni émotions. Si nous commençons à les voir comme des oracles fiables, des personnes disposant de droits ou d’adorables copains pour la vie, nous serons tombés dans le piège des ingénieurs de l’empathie. Même le discours autour du risque existentiel n’est, pour certains, qu’un autre avatar de la hype façon Silicon Valley.

Les stratégies et les techniques actuelles de l’apprentissage machine atteindront peut-être rapidement leurs limites, et il est clair par ailleurs que la hype bat son plein. Mais ce genre d’argument est tributaire d’une tradition critique un peu vieillissante qui, à mon sens, refuse d’affronter les grandes questions posées par l’IA sur l’intelligence, le langage, l’évolution ou la constitution du Moi (sans parler de son manque de respect pour les perroquets). Cette tradition, me semble-t-il, n’a pas intégré la leçon la plus importante du poststructuralisme : sa caractérisation du langage, et en particulier de l’écriture, comme une machine fondamentalement non-humaine. Et je crois par ailleurs que ce genre de critique n’a pas la moindre chance d’être efficace, en partie parce qu’elle repose sur une tradition humaniste moderne qui est elle-même en plein effondrement. C’est peut-être une bonne chose, d’ailleurs…mais le visage que prendra notre post-humanisme est encore indécis, et nous devrions prêter attention à cette mutation.

Le développement de l’IA comme processus technique et sociologique est également lié à un certain style de vie, une manière particulière d’envisager la condition (post)humaine. Comme le dit Ezra Klein, la culture des développeurs d’IA qu’il a pu fréquenter est « bien plus étrange que la plupart des gens se l’imaginent ». Ezra, comme moi, a vécu à San Futurisco ; il ne donne pas plus de détails, mais je vais m’empresser de le faire. Quelques traits saillants de cette culture : drogues psychédéliques, hacking social et biologique, polyamour, projets divers autour de Burning Man, transhumanisme, et des positions philosophiques situées entre un utilitarisme rationaliste impitoyable (qui peut prendre des formes franchement baroques) et un hédonisme libertarien. Nombre de ces super-geeks affichent aussi leur fatalisme devant une Singularité qu’ils considèrent comme inévitable, voyant toutes les courbes exponentielles qui caractérisent le développement actuel des IA comme le début de notre décollage vers l’asymptote technologique la plus extrême de l’histoire humaine.

Quel est l’effet concret de cette bouillabaisse façon Bay Area sur le développement de l’IA ? Il est sans doute impossible de répondre à cette question, mais il me semble évident qu’une bonne partie des petites mains qui façonnent ce secteur se sent prêt à foncer plein gaz sur l’autoroute de la dinguerie scientifique, et leurs crissements de pneu commencent à sérieusement inquiéter le reste d’entre nous. Personnellement, j’ai du mal à comprendre comment les grands décideurs du domaine peuvent justifier le fait de ne pas freiner un bon coup, afin de nous laisser intégrer cet incroyable progrès technologique à un rythme à peu près cohérent avec nos capacités cognitives. Mais après tout, c’est sans doute très exaltant de jouer avec la survie de l’espèce humaine. C’est peut-être ce qui explique que les développeurs d’IA continuent d’aller travailler alors qu’une bonne moitié d’entre eux estiment à 10% ou plus la probabilité que leur invention finisse par exterminer la race humaine.

Sam Altman – PDG d’OpenAI, à qui on doit DALL-E et GPT, et l’une des figures les plus importantes du domaine – est quant à lui convaincu que nous finirons littéralement par nous fondre avec les machines. Dans un essai posté à l’origine sur Medium, il écrit :

La fusion a déjà commencée, mais elle va devenir de plus en plus étrange. Nous serons la première espèce de l’histoire du monde à concevoir ses propres successeurs. Je ne vois qu’une alternative : soit nous devenons le bootloader de l’intelligence numérique avant de disparaître dans l’obsolescence, soit nous parvenons à réussir notre fusion avec elle.

On est en plein dans « Revenge of the Nerds » ! On pourrait passer un certain temps à déplorer l’absence de toute nuance, les bases philosophiques chancelantes ou l’absence de toutes les alternatives plus réjouissantes dans cette atterrante sentence. Mais ce n’est pas là mon propos ; plus simplement, il me semble qu’il n’est pas souhaitable que les personnes responsables de l’entrée de l’IA dans notre société soient sous l’influence de cette doctrine transhumaniste, tout comme il est sans doute préférable d’éviter de confier à des fondamentalistes persuadés que l’Apocalypse est imminente la gestion des parcs nationaux (ce qui s’est produit en 1980 avec la nomination par Reagan de James Watts, un cinglé évangéliste notoire, au poste ministériel responsable de ce champ).

Altman, comme bien d’autres de ses collègues, a transformé le biais computationnel inhérent à l’ingénierie informatique en une psychologie totalisante. Il a par exemple tweeté, en réponse à la critique d’Emily M. Bender citée plus haut : « Je suis un perroquet statistique, et toi aussi ». Nos cerveaux ne sont que des plateformes qui font tourner des algorithmes, parient sur les probabilités et génèrent des processus prédictifs pour composer nos perceptions en se fondant essentiellement sur des a priori. C’est une perspective qui ne manque pas d’intérêt pour aborder les sciences cognitives, les modèles mentaux et même la linguistique, mais je refuse qu’on fasse ainsi disparaître la question de la conscience, sans même parler des mystères et des visions cosmiques qui devraient nous rendre un peu plus humbles. Nous sommes peut-être des perroquets statistiques, mais nous sommes éveillés : nous rêvons, nous aimons, et nous pleurons devant les images de la disparition du monde qui envahissent nos écrans.

Ce même texte d’Altman comporte, dans la version postée sur son propre blog, une note de bas de page assez révélatrice :

Je pense que les technologies de manipulation de l’attention seront pour notre génération ce que l’addiction au sucre a été pour celle d’avant. J’en ressens déjà les effets sur moi : je me rappelle avec nostalgie ce que c’était d’avoir une capacité d’attention supérieure à quelques minutes. Les jeunes enfants de mes amis, eux, ne savent même pas que c’est possible. Je me sens triste ou en colère beaucoup plus souvent, et je ne parviens que rarement à en faire quelque chose ; au lieu de cela, je passe mon temps à courir après les shots de dopamine que procurent les likes et l’indignation gratuite.

Ce qui me frappe le plus dans cette triste confession, c’est sa profonde passivité. Où est donc passé l’héroïque solutionnisme technologique de la Silicon Valley ? Altman décrit ici un aspect crucial de notre moment de crise collectif : nos esprits sont englués dans des schèmes répétitifs, empoisonnés, addictifs, empreints de manipulations, de rage et de désespoir. Mais plutôt que de suggérer des possibilités du côté du soin ou de la réduction des risques, voire même de s’en remettre aux vieilles lunes de l’augmentation du potentiel humain ou de la mutualisation façon cyborg, le PDG se soumet, fataliste, au démon Asperger-piège-à-clic. Le hacking n’est plus le fait d’humains déterminés à s’ouvrir des espaces de liberté ou de jeu dans des machines destinées à d’autres usages : c’est un sortilège technologique déployé contre notre propre esprit.

Altman a décidé qu’aucun rapprochement n’était possible entre l’alien-IA et l’humanité, et qu’à la fin, c’est nécessairement l’IA qui va gagner. Cela fait des décennies que je lis de la SF, des philosophes nihilistes, de la psychologie évolutionniste et des media studies, donc tout cela ne me surprend pas. Mais ici, ce fatalisme m’évoque davantage les racines étymologiques de l’étrangeté : le mot weird vient de l’anglo-saxon wyrd, qui signifie « destinée ». Les sorcières que rencontrent Macbeth dans la pièce de Shakespeare sont les wyrd sisters, et le destin funeste de ce jeune homme nous rappelle que les problèmes d’étrangeté sont souvent liés à la question de l’agentivité, de la volonté et de ceux qui la manipulent. L’IA peut être vue comme le destin funeste de la modernité. Mais, pour citer Beowulf : « Souvent le sort (wyrd) épargne un héros dont le courage reste ferme ».

Altman est peut-être plus fataliste que moi, mais il me semble plus probable qu’il ait perdu son courage en même temps que sa capacité d’attention. Alors, haut les cœurs, Sam ! Ne serait-il pas dommage d’avoir ainsi gravi la pyramide du techno-capitalisme simplement pour être englouti par vos propres création ?

Etrange réalité

La troisième modalité de l’étrangeté que je décris dans mon livre est d’ordre ontologique. Il existe au cœur même de la réalité quelque chose de flou, difficile à cerner, et qui ne relève pas nécessairement d’une explication surnaturelle. L’exemple scientifique le plus clair en est sans doute les conséquences parfaitement contre-intuitives de la physique quantiques, qualifiées de « bizarreries quantiques » dès les années 70, mais ce que j’appelle le « naturalisme de l’étrange » va plus loin que cela. Comme le notait JF Martel dans son introduction à un récent épisode du podcast Weird Studies :

Sous un certain aspect, la réalité est si étrange qu’elle échappe à toute description systématique […] certains aspects du réel sont si étranges que la seule réponse réellement rationnelle est un émerveillement teinté de crainte.

Cet épisode est consacré à l’ouvrage de Ramsey Duke « Sex Secrets of the Black Magicians Exposed », un classique des années 70 qui présente une théorie des arts occultes parfaitement compatible avec les axiomes du naturalisme pourvu qu’on soit capable d’une attitude ouverte devant la diversité des expériences subjectives. J’ai découvert cet ouvrage dans les années 80, et il m’a permis (avec ceux d’autres auteurs comme Robert Anton Wilson) d’envisager les expériences magiques et mystiques non comme extérieures à la modernité mais interpolées avec elle, y compris dans son aspect technologique. C’est, entre autres, ce qui m’a entraîné vers le mot « étrange », que nous utilisons précisément pour décrire des événements mystérieux (coïncidences, rêves prémonitoires, impressions de déjà-vu, intuitions quasi-télépathiques) sans y plaquer des explications soit rationnelles, soit surnaturelles. L’étrange ne requiert pas de système explicatif, mais simplement une sensibilité aux expériences limites, une capacité à ne pas juger trop rapidement, et une authentique appréciation pour l’éternel retour de l’anomalie, cette tendance qu’a la réalité à nous faire vivre régulièrement des choses qui défient nos attentes et nos tentatives d’explication.

En surface, les GLLMMs ne sont que des expressions de la « pensée systémique » dotées d’une soif de donnée brute inextinguible. Mais ils génèrent un paradoxe assez nouveau : bien que leur fonctionnement soit régi par des lois relativement simples, il est généralement impossible de prédire ce qu’ils vont produire, et même d’expliquer à posteriori la forme que prennent ces productions. L’une des anomalies les plus flagrantes de ces systèmes est que lorsqu’ils produisent des contenus non attendus, les humains qui les ont conçus ne peuvent même pas prétendre savoir pourquoi. Pire, on est en fait dans la méta-incertitude : on ne sait pas pourquoi on ne sait pas comprendre ces mécanismes. Parler de « comportement émergent » me paraît être une manière pudique de dire à quel point nous sommes largués.

D’autres anomalies (dans un sens différent) nous attendent une fois que les IA actuelles et leurs monstrueux rejetons envahiront notre espace culturel, déjà largement contaminé par un capitalisme effréné qui n’a cure des aspirations humaines à l’épanouissement, à la recherche de sens ou simplement à la préservation de notre santé mentale collective. Le monde symbolique pourrait bien se retrouver infesté de robots plus malins que leurs créateurs : des agents technologiques simuleront des capacités que nous pensions réservés aux humains, aggravant encore la prévalence de la désinformation et des arnaques en tous genres, et même nos arts créatifs seront envahis par des perroquets statistiques qui finiront par conquérir le top 50 et par tromper même les critiques d’arts les plus affutés. Et ces « intelligences inhumaines », pour reprendre le mot de Niall Ferguson, nous réservent aussi des surprises que nous ne pouvons même pas encore imaginer. Les interactions sociales, institutionnelles et technologiques auxquelles nous avons (tout juste) réussi à nous habituer deviendront subitement imprévisibles, avec en conséquence une intensification des vécus de désorientation, de disruption et de distorsion de la réalité qui vont déjà croissants depuis une vingtaine d’années.

Au vu de toute cela, il me paraît intéressant de ressusciter une expression de la fin des années 90 : le global weirding, ou « bizarrification globale ». C’est une variante du global warming (« réchauffement climatique global ») qui cherchait à englober d’autres éléments que le réchauffement pour décrire un processus qui implique aussi bien des vortex arctiques et des rivières atmosphériques glaciales. Comparé au « changement climatique » (climate change) qui a aujourd’hui les faveurs des technocrates en tout genre, cette « bizarrification globale » me semble mieux exprimer notre ressenti collectif devant une météo perpétuellement étrange et une atmosphère générale lourde et menaçante. Et à présent, cette inquiétude animale est amplifiée par l’arrivée de démons-geeks qui semblent devoir rebattre toutes les cartes en ce qui concerne le numérique, la communication, la recherche, la sécurité, le divertissement et le capitalisme de surveillance. Il est possible, sans être probable, que ces machines puissent nous aider à affronter la polycrise actuelle, mais même dans ce cas, nous sommes partis pour un voyage long, étrange, et sans escales.

Bien. Résumons-nous : j’ai essayé dans cet article de caractériser cette « bizarrification globale » en jouant avec les concepts autour de la notion d’étrangeté. Cette notion me paraît être utile pour interagir avec des transformations inattendues, voire terrifiantes, qui dépassent nos capacités de modélisation et de compréhension : en les considérant comme « étranges », on se place dans un espace psychique déjà connu, avec un corpus culturel et littéraire bien établi auquel se raccrocher et même une certaine forme d’éthique. Cela nous permet de continuer à construire ce qui importe réellement au milieu de l’affrontement de paradigmes dans lequel nous sommes pris ; le sentiment d’étrangeté n’est jamais confortable, mais il est possible de se familiariser avec lui et d’acquérir une certaine forme de pouvoir et d’équilibre à son contact, un peu comme on s’habitue à la présence des morts, des dieux ou de la pathologie mentale. Rien de ce qui est humain ne m’est étranger, et rien non plus de ce qui est inhumain.

Et il est important de garder à l’esprit l’ambivalence fondamentale du mot-monde qu’est l’étrangeté. Il dénote à la fois la terreur et l’émerveillement, l’impossibilité de la prédiction et la lutte contre la répétition ; c’est le signe d’un interrègne et un portail vers d’autres mondes. Je ne dis pas cela seulement pour vous rappeler (en dépit de mon sempiternel pessimisme) que ces technologies continueront de produire des merveilles ; c’est très bien de résoudre le mystère du pliage des protéines, mais ce n’est pas mon propos. Ce que je souhaite invoquer ici, c’est l’étrangeté qui demeure au-dessus et au-delà de tout calcul possible, ce fonds commun à toute l’humanité qui, paradoxalement, pourrait bien devenir plus visible et plus extraordinaire encore à l’heure de la soumission apparente du monde humain à l’étreinte du calcul et de la programmation. Autrement dit : colonisés par les machines, nous pourrions bien commencer à apercevoir un mystère bien plus fondamental, une étrangeté particulière aux êtres sentients, ceux qui ouvrent des brèches lumineuses dans un ordre des choses en déclin.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.