David Monniaux

Chercheur en informatique

Abonné·e de Mediapart

29 Billets

0 Édition

Billet de blog 13 mai 2025

David Monniaux

Chercheur en informatique

Abonné·e de Mediapart

Intelligence artificielle, le renoncement

Lors d’une discussion avec une collègue d’une disciplinaire littéraire qui préparait un enseignement sur l’intelligence artificielle, celle-ci m’a dit que ce qui lui semblait singulier dans l’intelligence artificielle est qu’il s’agit d’un objet humainement construit, et dont pourtant on ne sait expliquer pourquoi il obtient tel ou tel résultat. Cela m’a donné à penser.

David Monniaux

Chercheur en informatique

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Tout d’abord, il me semble inexact qu’il s’agisse là d’une singularité de l’intelligence artificielle, d’un phénomène nouveau. Cela fait longtemps que les humains conçoivent des systèmes de règles dont ils peuvent expliquer chaque étape élémentaire, sans pour autant être capable de prédire les comportements d’ensemble de ce système. Prenons le jeu d’échecs : ses règles sont relativement simples, et en tout cas parfaitement compréhensibles prises isolément, mais on a pu au fil des années introduire de nouvelles stratégies ; si ces stratégies étaient nouvelles, c’est que les trouver n’était pas si simple. Du reste, on ne sait toujours pas actuellement s’il existe ou non une stratégie gagnante, ou du moins une stratégie menant au moins à une partie nulle, pour le joueur blanc. Depuis les travaux de Church et Turing, on sait qu’il n’existe pas de méthode générale et automatisable qui, à part de la description d’étapes de calcul élémentaires permet de déduire le comportement final du système exécutant ces étapes (on pourra aussi évoquer les travaux de Gödel sur l’incomplétude). Il y a des énoncés mathématiques qui semblent vrais, mais dont on ne sait pas démontrer qu’ils le sont : par exemple, si l’on part d’un nombre entier naturel (1, 2, 3, 4, 5…) et qu’à chaque étape, s’il est pair on le divise par deux, s’il est impair on le multiplie par trois et on ajoute un, alors on finit par retomber sur 1 (ceci est la conjecture de Collatz, également connue sous le nom de conjecture de Syracuse).

En informatique, cela fait longtemps qu’on constate que certains algorithmes se comportent mieux que ce que l’on sait justifier mathématiquement ; notamment, certains algorithmes sont plus rapides sur des cas « du monde réel » (avec toutes les précautions épistémologiques que l’on doit prendre face à une telle notion) que dans le pire cas, et on n’a pas vraiment d’explication permettant de caractériser cela. Les méthodes de calcul numérique donnent, me semble-t-il, souvent des résultats plus précis que ce que l’on sait justifier — il ne me semble d’ailleurs pas, de toute façon, que l’on sache justifier de bout en bout qu’un calcul numérique de simulation de physique un tant soit peu complexe, par exemple de mécanique des fluides, simule ladite mécanique avec une certaine précision. Cela n’empêche pourtant pas d’utiliser de tels calculs quotidiennement dans l’industrie, afin de prédire le comportement physique de ponts, d’ailes d’avions, etc.

Ainsi, ce n’est pas une nouveauté que l’on se serve de procédés calculatoires conçus par l’homme sans pour autant être capable de les justifier complètement. Bien sûr, il y a des différences de degré dans nos difficultés à justifier que tel ou tel procédé calculatoire fait bien ce que l’on attend de lui alors même que nous l’utilisons, et je ne mets pas tout sur un pied d’égalité. Toutefois, ce qui me paraît le plus saillant concernant l’intelligence artificielle et plus précisément l’apprentissage automatique, c’est qu’il sert dans des cas où nous renonçons à définir ce que nous voulons faire ; autrement dit, non seulement nous ne savons pas justifier que cela fonctionne, mais nous ne savons pas non plus définir ce que cela voudrait dire que de fonctionner. Je vais préciser ce que j’entends par là.

En algorithmique classique, celle qu’on trouve dans les manuels, à l’université ou dans les écoles d’ingénieurs, on décrit précisément un problème qu’on veut résoudre (par exemple, trier des données), en le caractérisant mathématiquement, avant de proposer des algorithmes pour le résoudre, de démontrer que ces algorithmes le résolvent effectivement, en combien de temps, avec quel usage de mémoire. Cela suppose donc de savoir définir mathématiquement ce que l’on désire faire. Bien sûr, ceci est un cas un peu extrême, et tout n’est pas si bien défini ; par exemple, en informatique graphique, on fait certaines choses parce que c’est « plus joli », cela « rend mieux », et cette appréciation n’est pas mathématique ; mais le reste de la justification du calcul suit un canevas mathématique. À l’autre extrême, on trouve l’apprentissage automatique, qui brille notamment pour des tâches que les humains savent réaliser, mais qu’ils ne savent pas expliquer comment ils les réalisent. Ainsi, je sais reconnaître un chat d’un chien, mais j’aurais du mal à expliquer selon quels critères précis.

Ainsi, pour moi, le côté saillant de l’intelligence artificielle par apprentissage, notamment par apprentissage profond à partir de données massives, réside dans cette renonciation affichée à définir ce que l’on désire autrement que par la donnée d’exemples à imiter.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.