A propos du livre d'Hubert Krivine «l'IA peut-elle penser?»

L'intelligence artificielle moderne travaille essentiellement à partir de corrélations tirées de l'analyse de millions - voire de milliards - de données. Ces corrélations permettent souvent de prévoir, et donc d'agir, mais sans comprendre ni surtout expliquer. Est-ce encore utile ? C'est le propos du livre court et dense que d'analyser cette question fondamentale.

Intelligence, artifice, pensée : de Noah Harari à Hubert Krivine

Ce billet vise à engager ses lecteurs à découvrir le dernier livre d’Hubert Krivine, « L’IA peut-elle penser ? » (chez de Boeck). Livre court et dense sur un sujet envahissant, s’il en est, et qui prolonge son précédent ouvrage « Comprendre sans prévoir, prévoir sans comprendre » (chez Cassini). Il faut le lire, et cette recension pourrait s’arrêter à cette recommandation enthousiaste. Mais le sujet est tellement passionnant que j’ai envie d’en dire plus, au risque d’en dire trop pour une recension…

En guise d’introduction, je partirai des lignes de conclusion d’un autre ouvrage, épais celui-là (et non moins dense) : « Homo Deus, une brève histoire de l’avenir », de Noah Yuval Harari, professeur d’histoire à l’Université hébraïque de Jérusalem, végétalien et bouddhiste. À la fin de l’ouvrage, traversé de part en part par le thème de l’Intelligence artificielle, Harari résume son propos en ces termes : « Si nous adoptons une vision de la vie à vraiment grande échelle, alors tous les autres problèmes et toutes les évolutions s’effacent devant trois processus interdépendants :

  1. La science converge vers un nouveau dogme envahissant, à savoir que les organismes sont des algorithmes et que la vie consiste à traiter des données.
  2. L’intelligence est découplée de la conscience.
  3. Des algorithmes dépourvus de conscience mais pourvus d’une grande intelligence pourront bientôt nous connaitre mieux que nous nous connaissons nous-mêmes.

Ces trois processus soulèvent trois questions, dont j’espère (c’est Harari qui parle) qu’elles vous accompagneront longtemps après que vous aurez fini ce livre :

  1. Les organismes ne sont-ils que des algorithmes, et la vie n’est-elle rien d’autre que du traitement de données ?
  2. Qu’est-ce qui est plus précieux : l’intelligence ou la conscience ?
  3. Qu’adviendra-t-il de nos sociétés, de la politique et de la vie de tous les jours lorsque des algorithmes dépourvus de conscience mais extrêmement intelligents nous connaitrons mieux que nous nous connaissons nous-mêmes ?

 Le livre d’Hubert Krivine aide à réfléchir à ces questions. Quelques mots d’explicitation, tout d’abord.

capture-d-e-cran-2021-03-22-a-14-50-22
Nous marchons dans la rue, et voulons traverser. Si nous sommes à un passage-piéton, nous regardons le petit bonhomme : rouge, ou vert ? Ça, ce sont des données. Notre cerveau traite ces données, et va déclencher une action : traverser, ou ne pas traverser. Il nous arrive de traverser même si le bonhomme est rouge, mais à condition de traiter d’autres données : y a-t-il des voitures qui approchent, d’abord de la gauche, puis de la droite. Non ? Allez, j’y vais. Mais si vous tenez par la main un petit enfant, nouvelle donnée, vous n’irez pas, en lui faisant remarquer les petits bonhommes. « Tu vois, nous passerons lorsqu’il sera passé au vert, pas avant ».

La moulinette cérébrale qui va des données à la décision s’appelle un algorithme. Le nom vient du mathématicien arabe Al Kwarizmi, qui vécut au IXème siècle à Bagdad où il fut membre de la Maison de la Sagesse. Un algorithme est une succession d’opérations permettant de résoudre une classe de problèmes. Par extension, c’est un processus mental qui calcule la décision en traitant les données. Cela vaut aussi pour les processus non conscients, comme la plupart des actions que nous faisons : nous marchons correctement sans y penser. Tout cela pourrait être fait par un robot, à condition de le munir de nombreux algorithmes.

On trouve sur Youtube des tas de petits films montrant des robots de type R2D2 ou Z6PO qui calculent mal leur trajectoire, même simple, et tombent sans pouvoir se relever – car ils n’ont pas les bons algorithmes pour cela. Mais les tâches pour lesquelles ils sont dédiés, les algorithmes peuvent les effectuer mieux qu’un humain : les programmes de reconnaissance de forme sont constitués d’algorithmes qui, lorsqu’on leur présente des clichés médicaux, peuvent faire des diagnostics avec une plus grande fiabilité qu’un médecin.

 Ces tâches, lorsqu’elles sont accomplies par des humains, sont souvent associées à la notion d’intelligence. Mais dira-t-on pour autant que ces algorithmes donnent un fondement à une sorte de conscience, et au flot d’émotions qui l’accompagnent, comme la peur, le désir et ou le sentiment de liberté ? Sans doute pas. Il semble donc qu’on puisse séparer intelligence et conscience. D’où la question de Harari : à quoi sert la conscience, si elle n’est pas nécessaire pour obtenir un comportement intelligent ? Et, entre ces deux notions, laquelle est la plus importante ? On sent bien que se profile en filigrane de cette discussion celle de l’humanisme, qui met la conscience au centre de ses valeurs. Si la conscience n’est plus indispensable à la détermination de comportements intelligents propres à résoudre des problèmes importants, l’humanisme des Lumières ne va-t-il pas s’éteindre, l’Intelligence artificielle ne va-t-elle pas prendre le pas sur l’intelligence humaine ?   

Mais revenons à sa question première : les organismes ne sont-ils que des algorithmes, et la vie n’est-elle rien d’autre que du traitement de données ?

 Il est certain que nous traitons des données en permanence, les exemples pris au début en témoignent. Les cas facilement formalisables, pouvant donc être pris en charge par une IA, définissent des ensembles de situations voisines, correspondent à des variantes de situations déjà rencontrées. Nous n’avons pas traversé CETTE rue à CET endroit, mais nous savons ce que traverser une rue implique. Nous avons dans notre mémoire des tas de traversées de rue, nous en avons mémorisé les caractères importants (par exemple, commencer par regarder à gauche en France mais à droite en Angleterre), et nous allons comparer une situation nouvelle à ce que nous avons en mémoire, chercher ce qui est le plus ressemblant et agir en conséquence. Les étapes qui permettent d’effectuer ces comparaisons constituent un algorithme, et c’est ce genre d’algorithme qu’on peut implémenter dans un programme. Le grand pari que ces démarches supposent, c’est que ce qui va advenir ressemblera à ce qui est déjà advenu.  

Le taylorisme et la mécanisation du travail relèvent de cette dynamique. On pense aux Temps Modernes, de Charlie Chaplin, où cette mécanisation est à moitié réalisée, puisqu’il faut encore des ouvriers pour serrer les boulons, et où l’émotion tient à cet assujettissement de l’individu à des tâches répétitives abrutissantes, aujourd’hui assurées par des robots. Le développement de l’IA permet aujourd’hui que d’autres activités, plus complexes, soient formalisées, et cela aura sans doute des conséquences importantes, parfois libératrices, parfois dévastatrices, sur certaines professions : des métros sans poinçonneur aux Lilas, certes, mais aussi – ainsi qu’Hubert Krivine le liste façon Prévert - « des voitures sans chauffeur, une médecine sans médecin, un enseignement sans professeur, une justice sans juge, une traduction sans traducteur, un art sans artiste, des guerres sans soldat », voire « une société sans citoyen ». Prudence.

Hubert Krivine pointe avec bonheur deux types de limitation fondamentale aux performances de l’IA, l’une relative à l’IA « faible » - la réalisation de tâches spécifiques -, l’autre à l’IA « forte » - l’émulation du cerveau humain de façon générale.

La première concerne les relations que le système confié à une IA entretient avec le « reste du monde » : plus ces relations sont limitées, mieux l’IA pourra s’acquitter de sa tâche. Ainsi, on conçoit que la conduite d’un métro puisse se passer assez facilement de conducteur, car l’environnement de la rame est très réduit : positionner l’arrêt par rapport à la station, lire la couleur d’un feu, s’assurer que la voie est libre. Le cas des voitures autonomes est déjà plus complexe : elles sont munies de capteurs qui enregistrent en permanence les données relatives à l’environnement de la voiture et calculent la conduite en fonction de la destination à atteindre et du maintien de distances minimales avec les autres véhicules.

Mais les choses peuvent se compliquer très brusquement. S’il peut être facile de programmer le respect du code de la route, la menace d’un accident peut nécessiter de s’en affranchir un instant pour l’éviter ; il faut aussi éviter d’écraser un piéton qui ne les respecte pas, anticiper que l’apparition inopinée d’un ballon entre deux voitures garées sur le côté peut être suivie de celle d’un enfant qui court pour le rattraper, ne pas confondre l’image d’un animal représentée sur un camion avec un animal véritable etc. Tout ce qui relève du « bon sens » d’un conducteur, faisant parfois appel à une perception du monde qui n’a aucun rapport avec la conduite d’un véhicule, peut se trouver très difficile à implémenter dans une IA.      

L’autre limitation que pointe H. Krivine est plus fondamentale. Les promoteurs d’une IA forte, comme il nous le rappelle, annoncent une nouvelle façon de concevoir la connaissance. Aujourd’hui, disons depuis les Lumières, ce que nous appelons connaissance est fondé sur des théories explicatives, tout au moins, c’est le but recherché explicitement par les chercheurs. Une théorie explicative permet de rendre compte d’un ensemble de phénomènes (le plus large possible), elle permet de faire des prédictions testables, et elle est robuste. L’IA forte prétend que ce schéma est dépassé, et peut (doit ?) être avantageusement remplacé par la mise en évidence de corrélations entre phénomènes, car des corrélations sont suffisantes pour faire des prédictions et prendre des décisions.

Prenons un exemple dans l’histoire de la physique. Lorsque Kepler, au début du 17ème siècle, s’intéresse au mouvement des planètes, il épluche pendant des années les données d’observation que Tycho Brahé a accumulées également pendant des années (ce sont les Big Data de l’époque) et propose les 3 lois qui portent son nom : les trajectoires sont des ellipses dont le Soleil est l’un des foyers, les aires balayées en des temps égaux par la droite qui joint le Soleil à une planète sont égales, et le rapport du carré de la période au cube du demi-grand axe est une constante qui ne dépend pas de la planète considérée. Tour de force de calcul aujourd’hui impensable, 1000 pages d’essais et d’erreurs ! Mais au final, Kepler ne sait pas pourquoi il en est ainsi. Ces lois sont empiriques. La théorie explicative ne viendra qu’à la fin du siècle avec Isaac Newton, qui fonde en 1684 les principes de la mécanique classique.

Dans cette théorie, les lois de Kepler changent de statut : de lois empiriques, elles deviennent des théorèmes. Mais la théorie peut s’appliquer à bien d’autres mouvements que celui des planètes. Elle permet de prévoir le mouvement d’un objet dès que l’on connait la force à laquelle il est soumis. Autrement dit, la théorie annonce un programme de recherche : cherchez les forces ! Et c’est ce que firent les physiciens pendant les deux siècles qui suivirent, jusqu’à ce que de nouvelles théories – la théorie de la relativité et la mécanique quantique –  deviennent nécessaires pour comprendre le comportement de la matière à  des échelles de temps et d’espace inaccessibles auparavant.

Aujourd’hui, la puissance des ordinateurs permet de collecter des milliards de données sur toutes sortes de phénomènes, et de rechercher entre eux des corrélations : croiser l’apparition de maladies avec les conditions de vie ou l’hérédité, croiser la prise d’une substance avec une guérison etc. Prenons l’exemple de l’aspirine (les informations qui suivent proviennent de Wikipedia). L’écorce de saule est connue au moins depuis l’Antiquité pour ses vertus curatives. On a trouvé la mention de décoctions de feuilles de saule dans un papyrus égyptien dès 1550 av. J.C. En 1829, Pierre-Joseph Leroux, un pharmacien français, tente, après avoir fait bouillir de la poudre d’écorce de saule blanc dans de l’eau, de concentrer sa préparation ; il en résulte des cristaux solubles qu’il nomme salicyline. Puis, des scientifiques allemands purifient cette substance active, un des dérivés est identifié comme la substance active. Ce dérivé prend le nom d’acide salicylique.

On a donc été capable de trouver un médicament sans savoir comment il agit, en affinant des corrélations. Aujourd’hui, on connait le mécanisme d’action de la molécule. Voici les mots et concepts qui le décrivent : « L'aspirine inhibe la production de prostaglandines et de thromboxanes. L'aspirine par une réaction chimique d'acétylation inhibe de façon irréversible les enzymes cyclooxygénase (COX1 et COX2), des enzymes participant à la production de prostaglandines et de thromboxanes.  L'aspirine fait baisser la fièvre, en réduisant la production de prostaglandines dans l'hypothalamus, thermostat de la température corporelle. » Mais faut-il entrer dans toute cette complexité ? Si l’on est capable de mettre en évidence, de façon empirique, les bonnes corrélations, n’est-ce pas suffisant pour agir ? Et comme nous sommes capables aujourd’hui de traiter des milliards de données, n’est-ce pas la voie qu’il convient de développer ? Bien sûr, on ne comprendra pas l’origine de ces corrélations, mais est-ce bien nécessaire ?

Cette perspective a été ouverte par les progrès fulgurants, depuis une quinzaine d’années, des algorithmes d’apprentissage. Ayant engrangé des millions d’images de chats dans un grand nombre de configurations possibles, y compris la nuit lorsqu’ils sont tous gris, le programme d’IA saura identifier un chat dans une configuration inédite. Mieux : en faisant jouer aux échecs ou au go un ordinateur contre lui-même, le système peut se constituer sa propre base de données, et c’est ainsi que les meilleurs joueurs du monde ont été battus. Mais il ne faut demander au programme d’expliquer comment il a fait : il ne le sait pas, car il ne comprend pas ce qu’il fait !

Krivine interroge : comment se créent les théories explicatives ? Ce n’est pas en multipliant les données sur la chute des pommes que Newton a créé les principes de la mécanique classique. C’est par une démarche d’abstraction qui répond à la devinette suivante : quelle peut bien être la relation entre la force qui s’exerce sur un objet et son état de mouvement ? Aristote, et tous les philosophes de la nature jusqu’au 17ème siècle, postulaient que force et vitesse étaient proportionnelles, qu’il fallait exercer une force pour entretenir le mouvement d’un objet. Newton postula que c’est l’accélération qui est proportionnelle à la force, et 3 siècles plus tard, on put envoyer des hommes sur la Lune.

Comment les théories physiques viennent à l’esprit des physiciens, on ne le sait pas plus qu’on sait comment fonctionne l’inspiration des compositeurs de musique. Et comme on l’ignore, on ne sait pas inventer des algorithmes qui créent des théories physiques. Pour la musique, Harari rapporte l’exemple des concepteurs de programmes capables de créer de la musique « à la manière de », par exemple une cantate « à la manière de Bach ». Cette musique « à la manière de » est même capable de tromper des spécialistes, qui parfois ne savent pas distinguer une œuvre originale d’une copie informatique. En peinture, des faussaires ont pu également tromper des connaisseurs. Mais, pour le dire de façon mathématique, il s’agit toujours d’interpolations ou d’extrapolations d’œuvres existantes. Ces exemples sont anecdotiques, même s’ils peuvent rapporter de l’argent.

Cela me semble plutôt rassurant, car cela veut dire que nous pourrons longtemps encore nous émerveiller de ces capacités de créations de formes nouvelles, qu’il s’agisse de théories physiques, d’art ou de formes de civilisation nous permettant, par exemple, de survivre au changement climatique.

H. Krivine résume ainsi son propre livre : L’intelligence artificielle peut-elle penser ? Si c’était une intelligence, ce devrait être oui. Mais l’affaire est plus complexe. Aux jeux d’échec ou de go, dans la reconnaissance des tumeurs, et plus généralement dans tous les domaines qui évoluent sans interaction avec l’environnement, l’IA semble miraculeuse.

                De là, le mirage d’une machine capable de rivaliser avec l’intelligence humaine en général, c’est-à-dire de penser sans cerveau.

                À la base de cette utopie il y a une double erreur :

- croire que monde réel puisse être réduit à une représentation digitale, pourvu qu’elle soit suffisamment alimentée.

-  et croire que les milliards de corrélations rendus aujourd’hui possibles par l’IA pourraient remplacer la réflexion théorique, alors que celle-ci est seule capable de découvrir des phénomènes radicalement nouveaux : comme la Covid-19.

                Les données ne sont pas tout : Newton n’a pas établi la loi de la gravitation parce qu’il a vu tomber plus de pommes que ses prédécesseurs !

                Alors, oui à l’IA, mais pas au prix d’une justice sans juges, d’une médecine sans médecins ou d’un enseignement sans professeurs et, au-delà, d’une société sans citoyens.

                Sans cette limite, l’IA peut aussi nous appauvrir.

Alors, ne vous privez pas du plaisir de cette lecture !

> Hubert Krivine, L'IA peut-elle penser ? De Boeck Sup, 128 p., 15,90 euros.

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.