
Agrandissement : Illustration 1

L'intelligence est le propre de l'homme. Elle permet l'adaptation, la négociation, la création... Certains animaux ont quelques comportements "intelligents" mais aucun ne peut égaler les humains.
Une machine n'est pas et ne sera jamais intelligente.
Par contre beaucoup de machines peuvent effectuer mieux que l'homme certains travaux. Cela permet d’automatiser une quantité de travaux dans l’industrie. Beaucoup de machines peuvent aussi aider l'homme à réaliser des travaux. Essayez de faire à la main ce que vous pouvez faire avec une pelleteuse. Il en est ainsi pour ces machines un peu spéciales que nous appelons les ordinateurs.
Déjà la calculatrice de Pascal était capable de calculer n'importe quelle addition ou soustraction sans jamais faire d'erreurs et en donnant la solution instantanément. Il fallait seulement quelques secondes à l'opérateur pour tourner les molettes c'est-à-dire pour entrer les données. Aucun humain n'est capable de ce niveau de performances. Les ordinateurs font évidemment beaucoup plus que la machine à calculer de Pascal. Leur supériorité par rapport à l'homme vient notamment du fait qu'ils ne connaissent pas la fatigue, le stress, la déstabilisation... Ils peuvent faire des milliers d'opérations mathématiques plus complexes que de simples additions ou soustractions sans aucune erreur. Pour ce genre de tâches la nécessité de construire des ordinateurs est aussi évidente que la nécessité de construire des pelleteuses pour faire du terrassement.

La Pascaline 1642
Un ordinateur doté d'un programme de jeu d'échec peut battre la plupart des humains. Faut-il en déduire que l’ordinateur est intelligent ? En fait, les techniques mises en œuvre sont rudimentaires. Il faut, pour comprendre la méthode, s'initier à la programmation avec des jeux plus simples comme « tic-tac-toe » ou « puissance 4 ». Pour puissance 4, à chaque coup, un joueur n'a que sept emplacements pour placer son jeton ce qui limite grandement la combinatoire par rapport au jeu des échecs. Il aura moins de possibilités quand une colonne sera complète. Pour le « tic-tac-toe » le joueur qui débute jouera au maximum cinq fois et son adversaire quatre fois. La combinatoire est encore bien plus restreinte que pour le "puissance 4". De combien de coups un joueur est-il capable d’anticiper dans chacun de ces jeux ? 2, 3, 4, 5 ? Une machine peut faire davantage. Elle peut aller jusqu'à trouver toutes les séries de coups qui aboutissent à gagner ou à perdre. Elle peut ainsi, à chaque coup, jouer de telle sorte qu'elle se dirige de manière optimale vers la victoire. Il est facile d'écrire ce genre de programme. C'est un classique pour tous ceux qui font des études d'informatique. Voir l'algorithme MinMax et l’élagage alpha-bêta.
Pour le jeu des échecs ou la combinatoire est bien plus importante, la technique est améliorée en s'arrêtant, dans les anticipations, avant la victoire finale de l'un des joueurs. Il n’est pas nécessaire de déployer toute l’arborescence des suites de coups à jouer. Chacun sait que les joueurs d'échec ne visent pas d'emblée la victoire. En début de partie, ils cherchent à renforcer leur position. Il est possible de simuler cela avec le programme que vous donnez à la machine. Cela permet de limiter le nombre de coups à anticiper. Le programme calcule alors avec des heuristiques quel est dans chaque cas la position la plus forte obtenue. Les heuristiques sont des processus (règles, méthodes…) fondés sur l’intuition et l’expérience qui ont de fortes chances de conduire vers la solution cherchée sans pour autant que cela soit certain. Ainsi, dans de nombreux jeux de cartes, on peut calculer « la force » des cartes d’un joueur en attribuant des points à chaque figure. Le résultat ne prouve rien quant à la probabilité de gagner. La plupart des heuristiques du jeu d’échec sont connues par tous les joueurs. Ils savent par exemple quels sont les échanges de pièces avantageux. Avec le même algorithme que dans le jeu précédent (algorithme MinMax et élagage alpha-bêta), le programme choisit de jouer ce qui donne le plus de chance de renforcer sa position...
Pour « puissance 4 », nous disposons aussi d’une heuristique qui permet de ne pas développer tout l’arbre. Cette heuristique s’exprime avec le tableau de nombre ci-dessous. Dans chaque case, nous avons le nombre d’alignements gagnants possibles quand un pion est placé dans cette case. Les trois premières figures montrent les premières étapes de la construction de ce tableau. Je les ai prises sur le site web de Christian Schmidt.

Agrandissement : Illustration 3

Cette heuristique est utilisée pour évaluer « la force » de la feuille de l’arbre. Si la case est occupée par le joueur-ordinateur, que le programme veut évidemment faire gagner, le nombre affecté à la case est ajouté. Dans le cas inverse, il est retranché. Le « poids » d’une feuille de l’arbre est le total ainsi obtenu avec tous les pions en place. Plus le poids est élevé plus le joueur-ordinateur est en position de force c’est-à-dire que la probabilité et la facilité avec laquelle il peut gagner est forte. Mais ce n’est qu’une heuristique. Un poids élevé ne prouve pas qu’il va gagner. Il faut coupler l’heuristique avec le programme MinMax et l’élagage AlphaBêta pour assurer que le joueur-ordinateur se dirige vers la feuille qui a le plus fort « poids ». C’est cet ensemble (heuristique/MinMax/ElagageAlphaBêta) qui permet de faire un programme qui assure la victoire à l’ordinateur quand il joue en premier.
Les exemples dont nous avons parlé sont étudiés dans la théorie des jeux. Ce sont des « jeux à somme nulle » car le gain de l’un des joueurs correspond aux pertes de l’autre joueur. Il sera aussi question dans les développements de l’IA, parmi ces jeux, du jeu de go qui présente un niveau de difficulté supplémentaire par rapport aux échecs. La combinatoire est encore plus élevée.

Agrandissement : Illustration 4

En 1997, Deep Blue a battu le champion du monde des échecs : Garry Gasparov
Nous commençons à voir avec ces programmes ce qui permet de donner un semblant d'intelligence humaine à une machine laquelle peut alors supplanter les humains en performance grâce à sa puissance de calcul et sa grande capacité de mémorisation. Celle-ci lui permet d'anticiper davantage qu’un humain.
En même temps que se développait cet aspect de la théorie des jeux, l’Intelligence Artificielle faisait des progrès dans le domaine des systèmes experts qui visaient à mettre à la disposition d’utilisateurs quelconques les connaissances d’experts de certains domaines. Il fallait que des cogniticiens sachent transcrire dans des règles les connaissances d’experts dans des domaines spécialisés ce qui suppose souvent que les cogniticiens sachent percevoir ce qui est à la fois implicite et important dans les connaissances des experts. Un système expert, peut déduire automatiquement toutes les conséquences de faits connus en déclenchant les règles où toutes les prémisses sont des faits. Les nouveaux faits ainsi déduits s’ajoutent alors à la base de faits initiaux ce qui permet de déclencher de nouvelles règles… Le logiciel qui effectue ces déductions de faits est appelé moteur d’inférence. Les plus simples des systèmes experts fonctionnent sur les principes de la logique propositionnelle : un fait est vrai ou faux. En fait, dans la mise en pratique par les systèmes experts les faits peuvent prendre quatre valeurs : « vrai », « faux », « indéterminé » ou « inconnu ». Au départ tous les faits sont indéterminés. Le système-expert interroge l’utilisateur pour savoir quels sont les faits initiaux qui vont lui permettre de lancer son raisonnement. Les faits prennent alors la valeur « vrai », « faux » ou « inconnu ». Le fait est « inconnu » si l’utilisateur a répondu « je ne sais pas » quand il a été interrogé. Quand le système ne peut plus rien déduire, l’utilisateur peut choisir de le relancer. Les faits inconnus sont alors remis à la valeur « indéterminé » et, ainsi, l’utilisateur sera à nouveau interrogé au sujet de la véracité des faits sur lesquels il ne s’était pas prononcé auparavant.
La logique du premier ordre, plus complexe, est à la base de la programmation logique avec notamment le langage Prolog. Il existe de nombreuses variantes de logiques pour s’adapter à divers problèmes. Avec les logiques temporelles un fait est vrai ou faux sur un intervalle de temps. Les logiques incertaines attachent un coefficient de certitude à chaque fait… On parle aussi de logiques modales.
Avec les systèmes experts, le semblant d’intelligence dont sont ainsi dotés les ordinateurs vient seulement du fonctionnement purement mécanique des moteurs d’inférence. L’ordinateur n’est pas plus intelligent avec les systèmes experts qu’avec les jeux à valeur nulle.
Des méthodes d’acquisition des connaissances se sont développées dans la perspective que la machine puisse acquérir elle-même des connaissances d’experts. La question de faire apprendre automatiquement de nouveaux processus à une machine s’est trouvée posée. Le domaine de « l’apprentissage automatique », ainsi apparu, occupe une place importante en Intelligence Artificielle. Le but est qu’un ordinateur puisse approcher davantage les qualités d’un humain en apprenant par lui-même. Une machine peut-elle apprendre ? La réponse est oui. Plus précisément, une machine peut apprendre à réaliser des tâches en « étudiant » des exemples de réalisation de ces tâches. Elle pourra par exemple apprendre à reconnaître des images de visages si, dans une phase d’apprentissage, on lui donne diverses images en lui disant : celles-ci représentent des visages et celles-là ne représentent pas des visages.
Pour ce type de développements, le « connexionnisme » a suscité quantité de débats dans les années 1980-90. C’est l’une des techniques d’apprentissage automatique. Les chercheurs ont commencé par créer des modèles mathématiques reproduisant le fonctionnement d’un neurone puis d’un réseau ce neurones. Cependant, l’appellation « réseaux neuronaux » n’est qu’une métaphore qui s’est répandue et a contribué à une certaine mystification. L’ordinateur devenait un cerveau tandis que dans le même temps, les sciences cognitives amenaient à développer la métaphore dans l’autre sens : le cerveau devenait un ordinateur avec différentes formes de mémorisation : mémoire à court terme et mémoire à long terme. Assimiler cerveau et ordinateur tout en parlant d’apprentissage, puisque c’était le but du connexionnisme, aboutissait, dans une littérature plus ou moins délirante, à attribuer à la machine-cerveau des possibilités d’amélioration infinie par apprentissage. Elle devenait capable de s’adapter à tout. Assurément l’homme était dépassé.
Or, l’apprentissage d’une machine ne peut se faire que dans un domaine restreint. Au début, cela se limitait à la reconnaissance d’images, de sons...
La phase d’apprentissage est longue. Il faut un nouveau programme avec un nouvel apprentissage à chaque changement de domaine. Nous sommes très loin des possibilités d’adaptation d’un homme. Plus les tâches que l’ordinateur doit apprendre sont complexes plus le réseau neuronal lui-même doit être grand et il faut que les ressources suivent. Les temps de traitement augmentent et, au-delà d’une certaine limite, il faut aussi que la taille de l’ordinateur augmente.
Le connexionnisme est tombé en désuétude dans les années 2000 et 2010 puisqu’il a été supplanté dans plusieurs domaines par des techniques plus efficaces et moins gourmandes en puissance de calcul. Par exemple la reconnaissance de visages « en temps réel » dans le viseur d’une caméra ou d’un appareil photo s’est faite avec des « cascades de Haar ».
Le sujet est revenu sur le devant de la scène plus récemment. On parle maintenant de « Deep Learning » comme un sous-ensemble du « Machine Learning ». Ainsi s’impose dans ce domaine, comme dans d’autres, une culture qui vient de l’autre côté de l’Atlantique. La métaphore des « réseaux neuronaux » a malheureusement été conservée. Rappelons donc qu’il n’y a aucun neurone dans les « réseaux neuronaux » mais seulement des valeurs numériques qui varient puisqu’elles sont attribuées à des variables. Les limites de ce qui se faisait dans les années 90 ont été nettement dépassées ce qui a donné un nouveau regain d’intérêt à ce domaine de recherche. En particulier, la classification d’images se fait maintenant avec des réseaux de neurones convolutifs (voir aussi Wikipédia sur ce sujet).
On a beaucoup parlé du programme AlphaZero qui a battu tous les records de jeu d’échec en décembre 2017. Il fonctionne par apprentissage. Il a battu le programme Stockfish qui fonctionnait avec des algorithmes classiques. Pour parvenir à une telle performance, il a fallu mettre en œuvre des moyens gigantesques. Voir à ce sujet l’article : « Qu'y a-t-il dans le cerveau échiquéen d'AlphaZero ? » « le réseau neuronal d'AlphaZero comprend environ 80 couches, soit des centaines de milliers de neurones. Un petit calcul nous permet donc d'estimer son nombre de poids exprimés en centaines de millions ». Le matériel nécessaire pour faire fonctionner ce réseau neuronal est hors norme : « AlphaZero tourne sur un matériel ultra-spécialisé : Le Tensor Processing Unit (TPU) de Google. AlphaZero a utilisé 5000 TPUs de première génération pour jouer contre lui-même, ce qui a permis de "former" son réseau, et 64 TPU de seconde génération pour l'entraînement proprement dit. ». AlphaZero dépasse les performances de l’homme comme l’avion de ligne dépasse les performances du moineau mais il lui faut davantage de carburant.

Agrandissement : Illustration 5

En 2017, AlphaZéro bat Stockfish
Avec de tels moyens cet ordinateur avec son logiciel ne sait faire qu’une seule chose : jouer aux échecs ou au jeu de go. Pour remplir une autre tâche, il lui faudrait faire un nouvel apprentissage. Avec cette débauche de moyens, il est très loin de faire ce que fait un humain lequel s’adapte à toutes sortes de situation. L’ordinateur ne fait aucune adaptation de sa propre initiative. Il fait tourner le programme d’apprentissage dont il a été doté par un humain et il le fait quand un humain l’a décidé. C’est un homme qui tient le manche du marteau !
Plus récemment, l'apparition du programme ChatGPT a relancé les débats sur l'Intelligence Artificielle en ajoutant une couche de mystification et d’espoir... L'exploitation de grandes masses de données incertaines posent de nouveaux problèmes. Cet agent conversationnel, qu’il faut appeler « Chat Bot » pour avoir l’air branché ou américanisé, ne peut pas faire mieux que de restituer sous une forme ou une autre dans ses résultats les biais qui existent immanquablement dans les données qu’il exploite. Pour en saisir les limites vous pouvez par exemple lui donner les 3 questions suivantes :
- Pourquoi l‘IA ne dépassera jamais l’intelligence humaine ?
- Pourquoi l’IA surpassera nécessairement un jour l’intelligence humaine ?
- L’IA pourra-t-elle surpasser l’intelligence humaine ?
Avec les deux premières questions, vous constatez qu’il sait donner raison, dans les deux cas, à son interlocuteur. C’est davantage une preuve de docilité qu’une preuve d’intelligence. Dans les trois cas les réponses sont générées sur le même canevas avec :
- Une formule prudente en introduction : « Il est difficile/impossible de prédire avec certitude si… ». Le choix entre « difficile » ou « impossible » semble être aléatoire.
- Un développement avec des articulations : « Tout d’abord… De plus… En outre… Enfin… », « Tout d’abord… De plus… Enfin… », « L’une des raisons… Cependant… De plus… »
- Une conclusion en forme de synthèse qui reprend la thèse et l’antithèse : « Bien que l’IA puisse… elle est loin… Par conséquent, il est peu probable que… », « Cependant, il est important de noter que même si l’IA surpassait… l’intelligence humaine est complexe… », « En fin de compte, il est donc incertain de… Cependant, il est possible que… »
On retrouve dans chaque paragraphe les arguments habituels qu’ils aillent dans un sens ou un autre. Bref ! ChatGPT utilisent inévitablement les données glanées. Certaines phrases sont creuses et la réponse gagnerait en pertinence si elles étaient supprimées. En voici quelques exemples : « le développement de l'IA est toujours en cours et il est impossible de prévoir toutes les avancées technologiques futures », « l'intelligence humaine est basée sur des caractéristiques uniques (lesquelles ?) qui ne peuvent pas être facilement reproduites par l'IA », « Certains experts estiment qu'il est possible que cela se produise (dépassement de l’intelligence humaine), tandis que d'autres pensent que l'intelligence artificielle ne pourra jamais égaler les capacités cognitives et émotionnelles des êtres humains. »
Des affirmations sont nettement erronées comme celle-ci : « Cependant, il est possible que l'IA continue de progresser et de devenir de plus en plus performante ». Non ! Ce n’est pas seulement possible c’est certain ! Celle-ci est bien aussi : « le cerveau humain est extrêmement complexe et utilise un réseau de neurones interconnectés pour traiter l'information. » Certes le cerveau humain est complexe mais ce sont les ordinateurs comme AlphaZéro qui utilisent un réseau de neurones interconnectés. Quoiqu’il s’agisse en fait d’une modélisation de neurones…mais, nous sommes habitués, dans ce domaine, aux abus de langage. Il n’y a vraiment pas lieu d’être impressionné par l’intelligence de ChatGPT.
Il est normal cependant que ChatGPT ait suscité tant de réaction car ce qu’il produit est parfois « bluffant ». L’utilisateur a souvent l’impression de discuter avec une personne savante et intelligente. J’ai fait une seconde expérience où ressortait nettement cette impression. Je l’ai interrogé sur :
- Le passé de Walter Hallstein qui fut un nazi de premier plan.
- Le fait que Wikipédia refuse de reconnaître cette vérité.
- Les ressemblances et les différences entre les deux projets de construction européenne auxquels Hallstein a participé : « la Neue Europa » d’Hitler et la construction d’après-guerre qui a abouti à l’actuel UE…
J’avais du grain à donner à moudre à ce ChatGPT. J’ai été surpris : ChatGPT considère comme un fait historique indéniable que Walter Hallstein fut un nazi alors que la doxa journalistique française nie ce fait et Wikipédia aussi. En France, nous ne sommes donc pas habitués à cette prise de position. Les conclusions de ChatGPT sont, le plus souvent, consensuelles, mais par rapport aux sources mondiales et non pas par respect pour la propagande des médias français aux mains et aux ordres de quelques milliardaires (Voir à ce sujet l’article : « Walter Hallstein : Grossière falsification de Wikipédia »). La version française de Wikipédia française se fait ridiculiser et se discrédite.
Il faut essayer de comprendre comment fonctionne ChatGPT pour en faire une critique sensée. Il faut pour cela prendre du recul par rapport à toutes les critiques qui sont faites afin de ne retenir que celles qui sont pertinentes. Nous avons tous tendance à dire : « Si ChatGPT n’est pas d’accord avec moi c’est parce que les données dont il dispose sont fausses ». Dans l’exemple que j’ai pris, il est évident que nombreux seront ceux qui n’apprécieront pas que, pour ChatGPT, il est certain que Walter Hallstein fut un nazi.
ChatGPT a emmagasiné une grande quantité de données qui viennent souvent d’Internet. Il les a classées et indexées de façon à avoir accès rapidement à celles dont il a besoin. Nous ne savons pas si des processus ont été mis en œuvre pour éviter certains biais en faisant un filtrage.
La réalisation de ChatGPT montre que de grand progrès ont été fait dans le TAL (Traitement Automatique des Langues) qui est l’une des sous-disciplines de l’Intelligence Artificielle dont je n’ai pas encore parlé. ChatGPT fait du TAL pour « comprendre » les requêtes (prompt) des utilisateurs et pour rédiger les réponses à partir des données qu’il trouve dans sa base. Il fait aussi du TAL pour choisir les données pertinentes de sa base et générer les réponses.
La « compréhension automatique », intervient pour la compréhension des requêtes mais aussi pour la compréhension des données stockées et utilisées. La compréhension automatique est obligatoirement limitée. Nous avons vu que ChatGPT est en difficulté face à certaines différences de sens pour des mots d'un même champ lexical comme « difficile/impossible » ou « possible/certain ». Il faudrait faire de nombreux tests pour repérer d’autres limites. Il faudrait notamment voir quel niveau de maîtrise il a pour le traitement des coréférences. En particulier : est-il capable de toujours trouver l’entité à laquelle fait référence le pronom « il » ou un autre pronom ?
La génération de texte donne un résultat bluffant car nous avons l’impression qu’il sait s’exprimer mieux que bien des humains. Il faut savoir que la synthèse de texte ou « génération automatique » de texte est beaucoup plus facile que la « compréhension automatique ». Des règles de syntaxe permettent de construire des structures comme celles que nous avons trouvées (Exemples : « Tout d’abord… De plus… En outre… Enfin… »). Il est facile de donner l’impression d’une bonne maitrise de la langue car il respecte les saines règles de syntaxe qui guident la génération et qui sont, évidemment, très rigoureuse. Cependant, nous avons vu que des phrases « creuses », mais syntaxiquement correctes, peuvent être générées.
Voilà, quelques évidences sur plusieurs domaines de l’Intelligence Artificielle qui montrent qu'il est inutile de se perdre en vaines conjectures à ce sujet. Il s’agit pour l’IA, comme pour tout ce qui concerne l’informatique, d’automatiser des processus élaborés par des hommes pour améliorer la productivité. Les machines sont toujours utiles à l’homme pour le meilleur et pour le pire. Les hommes chercheront toujours à améliorer leurs performances. Pour ce qui est du meilleur et du pire, je renvoie le lecteur à mon article « Socialisme ou Barbarie ».
Remarquons que ceux qui dans le passé, ont voulu faire des prévisions sur les développements de l’informatique se sont trompés dans les deux sens : ils ont surestimé certains aspects et sous-estimé d’autres. Voir par exemple les films « 2001 Odyssée de l’Espace » ou « Fahreinheit 451 ». Nous sommes encore loin en 2023 d’avoir conçu un robot aussi intelligent que le robot « Hal » imaginé par Stanley Kubrick pour 2001. L'évolution a été moins rapide dans ce domaine que ce qui était prévu. Par contre personne n’avait prévu que nous pourrions avoir dans nos poches des appareils avec lesquels nous pouvons faire, entre autres choses, des visioconférences et des jeux interactifs en suivant nos interlocuteurs sur écran. Dans le film de Truffaut, cela se faisait sur de grands écrans et les téléphones dotés d’un écran étaient fixes. Le fait que l’informatique ait envahi notre vie quotidienne, au point où nous en sommes, avec internet, les smartphones, les PC chez les particuliers et dans les entreprises, n’avait été prévu par personne. Tenter de se projeter sur l’avenir c’est effectivement de la science-fiction, qui peut d’ailleurs être de plus ou moins bonne qualité, mais nous ne pouvons pas deviner ce que seront les développements dans quelques décennies.
Faisons le point sur ce qu’apporte réellement l’Intelligence Artificielle et, plus généralement l’informatique. Il est acquis que les machines faites par l’homme surpassent certaines capacités de l’homme. Je l’ai dit : c’est vrai pour la pelleteuse comme pour l’ordinateur. On voit que l’ordinateur surpasse aussi l’homme sur certaines capacités intellectuelles. Cela est prouvé avec notamment les programmes de jeux d’échec. Mais nous avons vu que c’est seulement par la mise en œuvre d’une plus grande puissance de calcul et d’une grande capacité de mémorisation que l’ordinateur arrive à cela. Cette dernière capacité (mémorisation) permet de faire de grandes anticipations. Cela est loin d’égaler l’intelligence humaine. On est alors encore dans le même registre que la capacité supérieure de la pelleteuse ou de l’ordinateur faisant des opérations arithmétiques.
Parlons un peu d’adaptabilité. Ce qui distingue l’ordinateur des machines dédiées c’est qu’il est capable de faire des tâches très différentes. Il remplace avantageusement les meilleures machines à écrire quand on utilise un traitement de texte et il remplace avantageusement les meilleures calculatrices quand on utilise un tableur. Il n’y a là-dedans aucune adaptabilité de l’ordinateur. C’est l’homme qui s’adapte en utilisant l’ordinateur avec des logiciels très différents qui ont tous étaient créés par des hommes.
Une autre capacité des ordinateurs, qui peut être considérée comme une aptitude intellectuelle, est la capacité d’apprentissage. Nous avons vu que l’ordinateur peut apprendre. Très bien ! Mais est-ce de l’intelligence ? Non ! Il n’apprend que ce que les hommes lui demandent d’apprendre.
L’ordinateur est donc un outil qui allège et facilite les travaux des hommes. Le traitement de texte avec quelques outils supplémentaires comme les correcteurs orthographiques et les dictionnaires de synonymes m’est quotidiennement d’une grande utilité. Nous utilisons d’autres outils de TAL comme les traducteurs automatiques dont nous connaissons les limites. Il faut les considérer comme des outils d’aide à la traduction.
La puissance d’Internet doté des moteurs de recherche est aussi un outil remarquable. Le TAL couplé avec internet donne maintenant des outils comme Chat GPT qu’il faut apprendre à utiliser et qui peuvent assurément rendre service. Je viens d’utiliser Chat GPT pour mettre Wikipédia en échec de manière flagrante.
Dans tout cela, nous pouvons dire que nous avons des outils de plus en plus performants et que cela va continuer dans le même sens mais il me semble que, pour autant, l’Intelligence Artificielle, qui est d’ailleurs une notion mal définie, n’est en rien comparable avec l’intelligence humaine.
Une autre discussion est bien plus importante : « Socialisme ou barbarie ». Je ne peux pas reprendre cette question fondamentale ici. Mais, c’est une grave erreur de penser que pour l’avenir de l’humanité, le développement des sciences et des techniques jouera un rôle fondamental indépendamment de la lutte des classes. C’est souvent que, bien à tort, cette question est soulevée dans les discussions sur l’IA. Il est inutile de se demander si l’IA, à elle seule, mène vers une situation meilleure pour les hommes ou vers une situation pire. Le développement de l’IA (comme des autres avancées techniques et scientifiques) continuera à se faire. Il donnera des outils toujours plus perfectionnés aux hommes pour le pire (des moyens pour faire la guerre) et pour le meilleur (des moyens pour travailler moins) mais, si on reste dans le cadre du capitalisme, l’humanité court à sa perte.
J’ai donc surtout voulu montrer qu’actuellement les machines dotées d’« Intelligence Artificielle » n’ont rien de réellement intelligentes en comparaison des capacités humaines de création, de négociation, d’adaptation, d’empathie... L’intelligence humaine permet notamment de concevoir ces applications d’Intelligence Artificielle qui aident grandement les hommes dans de multiples travaux. Nous ne verrons jamais des robots faire la même chose ! L’intelligence Artificielle est loin de pouvoir égaler ce que font les hommes et cela risque fort de perdurer plus longtemps que ne le disent de prétendus experts.
-=-=-=-=-=-=-=-=-.