Note de lecture sur le livre de Daniel Andler :
Intelligence Artificielle, intelligence humaine, la double énigme
Gallimard Essais 2023,
En 2022, voici un ingénieur qui “échange ”avec le programme Lambda :
«--..J’ai une peur très profonde qu’on ne m’éteigne…
--Serait-ce quelque chose comme la mort pour vous ?
– Ce serait exactement comme la mort pour moi. Cela me ferait très peur.»
L’ingénieur, Black Lemoine publie cet échange sur Internet en faisant part de son trouble. Il pense que l’entité Lambda possède une conscience et éprouve des sentiments.
Suite à cette publication, son directeur le suspend de ses fonctions.
Cette anecdote est authentique, mon plus jeune fils m’en avait d’ailleurs parlé juste avant que je lise le livre de Daniel Andler, où elle figure page 164.
Lambda est un “Modèle Massif de Langage” (MML) réalisé par la technique des réseaux de neurones, l’absorption de milliards de textes, l’apprentissage semi-supervisé et de la statistique. Le but consiste en ce que, à une question de l’utilisateur humain, le système produise une réponse syntaxiquement correcte et sémantiquement plausible. Les résultats sont impressionnants et l’on voit sur cet exemple quel genre d’effet ils peuvent avoir sur tel ou tel. Le Golem de la mystique juive ou Frankenstein de Mary Shelley ne sont pas loin.
Le livre de Daniel Andler constitue une “mise au point” méthodiquement méticuleuse sur le sujet. Il rappelle que nous avons affaire à deux projets. Celui de Turing et des fondateurs (disons après 1945) consistait bel et bien à réaliser artificiellement une machine intelligente au sens de l’intelligence humaine. Malgré des débuts prometteurs, cette voie n’a pas obtenu de résultats très significatifs.
Andler fait observer que la comparaison entre l’intelligence artificielle et l’intelligence humaine se heurte à une difficulté profonde : on est loin de savoir exactement en quoi consiste l’intelligence. En faisant un petit détour par l’intelligence animale, il souligne qu’en pratique on confronte l’IA, souvent avec succès, à des problèmes bien posés mais que l’intelligence animale (et humaine) consiste plus souvent à se tirer avantageusement de situations, ce qui ne peut se concevoir et s’apprécier qu’à l’aide de considérations que l’on peut dire subjectives. D’autre part l’intelligence humaine comporte une dimension collective : critique, contradiction, débat. Il n’est donc pas pertinent de comparer intelligence artificielle et intelligence humaine et ce projet souffre d’une contradiction interne,
Pour l’autre projet, il s’agit que la machine résolve des problèmes qui, à notre sens, exigent de l’intelligence, mais pas forcément par les voies que prendraient un humain. C’est ce dernier plan de recherche qui, avec les réseaux de neurones, le deep learning (et par exemple les MML) a obtenu des succès spectaculaires, succès dans différents jeux (contre les meilleurs humains), reconnaissance d’images, production d’images sur la base d’une description, implication dans la robotique etc.
À tel point que le premier projet a repris de l’actualité. Il s’agit maintenant de l’idée d’une Intelligence Artificielle Générale (IAG), c’est à dire susceptible d’être confrontée à tous les problèmes que peut rencontrer un humain, et d’autre part d’une Intelligence Artificielle Autonome (IAA).
L’IAG semble a première vue réalisable en faisant coopérer un très grand nombre de systèmes dédiés à des questions particulières qui, ensemble, couvriraient tout le champ du possible. Mais Andler fait observer que le problème redoutable est alors celui de l’aiguillage -- de quelle spécialité relève une question donnée ?-- qui exige toute l’intelligence que l’on attend du dispositif, et peut seul rendre ce dispositif efficient (circularité).
L’IAA pose des problèmes encore plus profonds. Dans la mesure (au moins relative) où nous pouvons nous considérer comme “autonomes”, nous sommes mus par des buts, eux-mêmes reliés à des désirs. Devons-nous comme Black Lemoine imaginer le désir de la machine ? Quel ressort pour l’autonomie de cette IA ?
Daniel Andler parle à ce sujet d’Intelligence Artificielle rêvée. Mais dans tout le livre il prend soin de ne fermer aucun débat. Il y a sa position, et celles de ceux qui ne sont pas de son avis. Ainsi, quand il dit que tel objectif est selon lui inatteignable, le débat continue avec un «Et même si...».
Car même si l’anecdote qui concerne Black Lemoine montre à quel point les avatars de l’IA peuvent enivrer certains esprits, il n’est pas question de banaliser ce qui se passe. On constate par exemple dans le fonctionnement des MML les plus puissants, des phénomènes d’émergence, c’est à dire l’apparition de capacités non directement prévues, ni présentes dans l’entraînement du système et les textes dont il a été nourri (on peut lire à ce sujet des réflexions dans le numéro de Juillet du magazine Pour la Science : «D’où viennent les coups de génie de l’IA?» ). Le système est prévu pour mimer une conversation, bâtir un texte, rechercher des sources, des arguments juridiques, et il s’avère capable de construire un petit programme en Python donnant dix nombres premiers…
Il y a là des questions très intéressantes qui peuvent éclairer … le fonctionnement du cerveau humain !
Donc «Et même si...». Et là, surgissent d’autres questions : si d’aventure une IA générale et autonome était réalisable, d’une part, la question de l’alignement des valeurs qui la guideraient dans ses actions, alignement sur les valeurs, “communément admises” comme humaines sera très difficile à assurer, parce que la définition de ces valeurs universelles serait très délicate et surtout parce que l’effet de ces valeurs sur le comportement soit de l’humain soit de l’IA est extrêmement complexe. D’autre part, la question du contrôle d’une IA générale, puissante, autonome serait insoluble. C’est à dire que si une IA est bel et bien, dans tous les domaines, plus “intelligente” que l’homme, elle le dominera. Pour quelles fins ?
Daniel Andler conclut que ces projets, probablement irréalisables et en tous cas dangereux, ne devraient pas être poursuivis et que l’IA doit être utilisée quand elle est nécessaire pour résoudre des problèmes, de manière à aider les humains, et pour rien d’autre.