
Le philosophe suédois Nick Bostrom est enseignant à l'Université d'Oxford. Il s'est spécialisé dans la prospective, notamment celle concernant l'avenir de l'humanité. Il a fondé et dirige le « Future of Humanity Institute » ainsi que le « Programme on the Impacts of Future Technology » au sein de la Oxford Martin School, dont nous avions précédemment indiqué qu'elle avait été mise en place à Oxford, à l'initiative du cosmologiste et futurologue britannique Martin Rees. Nous pensons que des applications immédiates à la vie politique internationale pourraient être faites à partir ce ce livre.
NB. Sur les différentes formes d'intelligence artificielle, voir nos précédents articles, que le lecteur pourra actualiser en fonction de ses connaissances 1)
Le tout récent ouvrage, que nous analyserons plus en détail dans un article dédié, aborde un sujet qui fait déjà l'objet de nombreux commentaires et travaux, souvent à la limite de la science et de la science fiction, celui des superintelligences, plus particulièrement celle des « machines » ou systèmes d'intelligence artificielle (IA) dits « germes » capable de se développer eux-mêmes sans interventions humaines. Autant que l'on puisse savoir, des prototypes de tels programmes sont activement étudiés, dans une obscurité intentionnelle, tant par des géants du web américain tels que Google que par des laboratoires travaillant à des fins militaires, les principaux se trouvant aux Etats-Unis. Les causes permettant à de tels programmes de se développer reposent dans la mise en place initiale de conditions politiques leur permettant de commencer à faire leurs premiers pas sans susciter de résistances.
Dans une première phase, pouvant durer une dizaine d'années ou plus, ces IA seront sous contrôle de leurs concepteurs et de leurs utilisateurs. Ils disposeront d'un minimum d'intelligence autonome leur permettant de prendre des initiatives, mais celles-ci seront conçues pour satisfaire les exigences politiques de ces mêmes concepteurs et utilisateurs. Le cas le plus évoqué est celui du drone capable d'identifier des objectifs définis comme ennemis et de les détruire sans autorisation. Mais ces drones ne doivent pas, en principe, pouvoir s'attaquer à des humains non différenciés.
Ceci étant, dans l'esprit de Nick Bostrom et de nombreux autres spécialistes, notamment le précurseur Eliezer Yuskowsky 2) après plusieurs itérations se déclenchant spontanément, ces systèmes pourraient acquérir des intelligences de type humain, capables notamment d'invention et de jugement. Très vite alors, ces inventions s'appliquant notamment à leur propre perfectionnement, les systèmes acquéreront des capacités supérieures ou même immensément supérieures à celles de l'esprit humain.
Pour Nick Bostrom, comme pour beaucoup d'autres spécialistes qui y travaillent activement, tel le très connu Ray Kurzweil ( aujourd'hui directeur chez Google), il ne fait aucun doute que, dans un délai relativement court, 20 à 30 ans, si les choses restent ce qu'elles sont actuellement, de telles superintelligences seront mises au point. Se posera alors un problème souvent évoqué, ces superintelligences deviendront-t-elles alors si intelligentes qu'elles échapperaient au contrôle des hommes qui les ont mises au point et, le cas échéant, pourraient se retourner contre eux.
Une réponse rassurante est que les concepteurs humains de ces systèmes leurs imposeront à la construction ou à l'usage, des contraintes telles qu'ils ne pourraient pas échapper à leur contrôle. C'est ce qu'avait voulu démontrer Isaac Azimov en présentant « Les trois lois de la robotique » Mais, dans un tout autre domaine, l'on côtoie couramment des risques de cette nature, par exemple dans les laboratoires de génie génétiques, où de nouvelles espèces bactériennes sont mises au point. De récentes enquêtes ont montré 3) que constamment apparaît la possibilité que certaines formes modifiées de virus ou de bactéries échappent aux laboratoires et se répandent dans la nature. Là, sans se retourner explicitement contre les hommes, elles pourraient continuer à muter et produire des souches incontrôlables.
En ce qui concerne les systèmes d'IA, de nombreuses recherches visent actuellement à les doter de capacités autonomes de prises de décision. Ce sera notamment le cas dans le domaines des drones militaires aériens ou terrestres qui devraient en principe devenir capables de distinguer eux-mêmes amis et ennemis, et ouvrir le feu sur les seconds sans autorisation. Plus immédiatement, il a été récemment constatés que les bien nommés algorithmes intelligents, se nourrissant de nuages de « big data », pouvaient prendre eux-mêmes des décisions susceptibles de graves conséquence, notamment dans le domaine des spéculations boursières.
Dans la suite de cet article nous résumerons d'abord les principaux thèmes développés par Nick Bostrom. Nous nous demanderons ensuite si la superpuissance américaine, offrant les bases les plus favorables au développement de superintelligences, n'utilise pas des maintenant ces dernières, encore à leurs premiers stades de développement, pour affirmer et renforcer son contrôle sur le monde.
De l'intelligence des singes à celle des super-intelligences artificielles
Nick Bostrom est de ceux pour qui l'apparition, qu'il pronostique comme prochaine, de superintelligences ouvrira pour l'espèce humain des perspectives aussi fascinantes qu'éventuellement dangereuses. Il recommande que dès maintenant l'humanité se prépare à contrôler un phénomène que par ailleurs il estime dorénavant être inévitable. On doit notamment se demander que ce pourraient être les objectifs de ces superintelligences. Peut-on faire dès maintenant en sorte que ces objectifs soient compatibles avec les nôtres. Et, à supposer qu'une superintelligence se révèle initialement « amicale » pour l'homme, comment s'assurer que, créant elle-même ses propres successeurs, ceux-ci le demeureront?
Pour faire face à ces interrogations, s'impose d'urgence la mise en place d'une nouvelle science tournée vers l'étude des agents avancés d'intelligence et de conscience artificielle. Nick Bostrom rejoint en cela les demandes formulées depuis longtemps, dans les instances scientifiques mais aussi sur ce site, par Alain Cardon. Des équipes formées, non seulement de spécialistes de l'informatique, mais de mathématiciens et de philosophes, devraient être financés pour traiter cette question.
Pour Bostrom, une superintelligence est le produit d'un cerveau dont les capacités sont supérieurs en tous domaines à celle du cerveau humain en son état actuel. Aucun programme contemporain d'IA ne répond à ces spécifications. Il ne s'agit donc pas selon lui de systèmes existant actuellement ou susceptibles d'être développés dans un avenir proche, dans quelques années par exemple. Dans les meilleurs cas, les IA aujourd'hui réalisées ne disposent que de capacités comparables à celles d'un cerveau de souris...et encore.
Cependant nul ne sait combien de temps il faudra pour développer une intelligence artificielle « générale » (GAI) capable notamment de se confronter aux humains en matière d'apprentissage et de raisonnement. Ceci pourrait demander des décennies. Mais, ce premier niveau atteint, les futures IA générales pourraient très rapidement se transformer en agents radicalement superintelligents. Ceci en l'espace de quelques jours voire de quelques heures. C'est ce que l'on décrit par le concept d'AI germe 4).
Ce que l'on pourrait qualifier de scientifiques artificiels en superintelligence, opérant de leur propre chef, seraient en fait des machines et logiciels opérant à de très grandes vitesses à partir des investissements technologiques déjà réalisés et des moyens déjà mis en place par les scientifiques humains. Les nouvelles superintelligences artificielles disposeraient alors de ressources bien supérieures à celles qu'offre les milieux biologiques à des formes d'intelligence plus primitives.
Le premier système d'AI ayant concrétisé cette explosion de l'intelligence pourrait alors développer de nombreuses technologies, telles celles encore dans l'enfance aujourd'hui de la robotique nanomoléculaire, afin de réorienter l'évolution biologique à sa convenance. Trois formes de nouvelles performances pourraient alors apparaître, soit isolément les unes des autres, soit en synergie. Il y aurait les performances en vitesse, par exemple lire un livre en quelques secondes.
Viendraient ensuite les performances en capacité de traitement en parallèle. Il s'agirait d'une superintelligence collective, composée d'un très grand nombre d'intellects artificiels de niveau humain ou supérieurs se coordonnant spontanément ou au contraire générant entre eux des conditions de compétition darwinienne nécessaires à l'apparition d'espèces supérieures. On reconnaitra là la façon dont, par symbiose et compétition simultanées, les espèces vivantes se sont développées sur la Terre. Dans la limite des ressources en matériels et en énergie disponibles,des milliards de tels agents pourraient apparaitre simultanément – ceci tenant notamment au fait que le produit de leur activité pourrait favoriserait la mise au point de nouvelles formes de matériels et d'énergies.
Mais pour ces superintelligences l'enjeu majeur consistera en l'acquisition de formes d'esprits dépassant très largement en capacités générales, notamment en inventivité, celles des cerveaux humains actuels. On retrouverait alors, à une autre échelle, le phénomène, récemment étudié avec beaucoup de précision par le biologiste Thomas Suddendorf 4), ayant permis en quelques centaines d'années sans doute, l'apparition de préhominiens disposant de capacités pour l'acquisition de nouvelles connaissances bien supérieures à celles de leurs prédécesseurs immédiats les grands singes. Si ceux-ci, comme les autres animaux, disposent de cerveaux bien adaptés à la survie dans leur milieu propre, ils n'ont jamais eu les capacités à la pensée abstraite, à la communication langagière et à la prévision à long terme qui ont permis, dès les premiers australopithèques, l'émergence des espèces humaines primitives.
Or on ne sait pas encore exactement quelles mutations dans les gènes commandant le fonctionnement du cerveau et l'évolution des comportements ont permis l'apparition brutale de telles capacités. Ce ne fut certainement pas en tous cas l'intervention d'un grand concepteur, mais le résultat d'un phénomène évolutionnaire que l'on peut qualifier de spontané. Il en sera de même concernant l'apparition des superintelligences non humaines.
Les cerveaux artificiels de demain, en dépit de formes d'apparition différentes ou d'obstacles à surpasser dépendants de milieux de développement différents, seront dotés d'avantages compétitifs fondamentaux, par rapport aux cerveaux biologiques, dans la maîtrise des ressources en hardware en software ou en technologie de communication. Ceci dès les tâches fondamentales consistant à se copier, que ce soit à l'identique ou en introduisant des modifications de nature virale.
Le livre de Nick Bostrom comporte un appel aux scientifiques d'aujourd'hui, afin qu'ils mettent dès maintenant au point les méthodes permettant de contrôler les développements susceptibles à l'avenir de devenir dangereux. Mais il n'est guère convaincant à cet égard. Même si tous les humains se mettaient d'accord pour s'interdire conjointement certains types de progrès, il serait inévitable qu'à un moment ou un autre, certains d'entre eux, chercheurs « officiels » ou hackers, initialisent des développements qu'ils ne pourraient plus contrôler. Le risque existe déjà en matière de lutte contre la prolifération nucléaire.
Des systèmes de superintelligences anthropotechniques
Nous avons pour notre part introduit précédemment le concept de système anthropotechnique 6) Selon ce concept, l'évolution des milieux terrestres, dès l'apparition de l'outil chez les australopitécinés, a été le produit d'une évolution non pas en parallèle mais en symbiose des bases génétiques propres à l'humain et des technologies se développant spontanément au sein des sociétés humaines. Certes les premiers outils n'ont pas générés eux-mêmes leurs successeurs, comme le feront peut être les outils d'IA de demain, mais les humains qui les créaient obéissaient à des logiques inspirées par l'outil et non par des considérations plus généralement anthropologiques, morales, politiques ou autres. Ainsi les premiers outils en pierre taillés ont si l'on peut dire suggéré eux-mêmes à leurs utilisateurs des perfectionnements les rendant de plus en plus efficaces, que ce soit dans la chasse, la guerre ou la vie courante. C'est pourquoi il nous semble que le terme d'anthopotechnocène serait plus adéquat que celui d'anthropocène, aujourd'hui proposé, pour définir les changements imposés par l'homme aux milieux naturels.
Dans le cas des superintelligences évoquées ici, nous croyons erroné de penser qu'aujourd'hui comme demain, elles se développeraient indépendamment de la volonté des humains qui les mettent au point et les utilisent. Ceci aujourd'hui, alors que ces superintelligences sont encore dans l'enfance de l'art, autant que plus tard lorsqu'elles se développeront exponentiellement. Les ressorts technologiques de leur développement apparaitront toujours, selon nous, en symbiose avec les bases génétiques, cognitives, comportementales des humains qui seront, le voulant ou non, associés à ce développement. C'est ainsi qu'aujourd'hui, les humains de l'internet, qu'il s'agisse des individus ou des groupes, sont neurologiquement, biologiquement, comportementalement sinon encore génétiquement, différents des humains de la machine à vapeur.
Aussi parait-il possible de penser qu'à des technologies d'IA avancée nécessaires à l'apparition de superintelligences dépassant un jour, et peut-être définitivement, les intelligences actuelles, correspondront des organismes biologiques que l'on ne pourra plus qualifier d'humains mais de superhumains, profondément modifiés à tous égards. Les promoteurs de ces idées utilisent abondamment le concept de transhumains ou de posthumains. Comme de tels êtres, mi-biologiques mi-technologiques, seront sans doute enclins à ne pas partager leurs pouvoirs, le nombre des humains qui n'y accéderont pas, vite qualifiés par eux de sous-humains, se développera en parallèle, sauf extinctions toujours possibles, spontanées ou provoquées.
Un point important, que nous voudrions souligner ici, et que le trop naîf Bostrom n'évoque pas, concerne les supériorités déjà hors du commun par le système de pouvoir américain qui a depuis un demi siècle entrepris la domination du monde. Certains soulignent que ce système est en recul face à l'émergence de concurrents. C'est peu connaître la puissance qu'il a acquise – que lui ont laissé acquérir les systèmes de pouvoir en compétition avec lui. Cette puissance se mesure en termes de matière grise et de recherche, en termes de potentiels civils et militaires dans le domaine des matériels, des logiciels et des mémoires de masse, en terme de domination sur les intellects du reste des humains. Cette domination prenant la forme récemment dénoncée des emprises politiques et économiques de la NSA et de la CIA, se traduit aussi par la conquête des esprits de la plupart des humains par les géants américains du web, conquête dont ces humains ne se plaignent pas mais qu'au contraire ils encouragent.
L'observation un peu critique de l'évolution très récente de la politique mondiale peut faire penser qu'aujourd'hui la domination du monde par ce qu'il faut bien appeler les superintelligences américaines associant intelligences artificielles et intelligences humaines, est en train de s'accélérer. Sans tomber dans le conspirationnisme, il nous parait nécessaire d'admettre que des mécanismes de type systémique que nous ne maîtrisons pas, nous Européens, nous entraînent à participer à la destruction de systèmes présentés par l'Amérique comme des ennemis. Pensons à la Russie aujourd'hui quasiment menacée de guerre nucléaire, à la Chine très bientôt.
Tout aussi grave en ce qui nous concerne, de tels mécanismes, de plus en plus indétectables et incompréhensibles par nous mais de plus en plus efficaces, nous entraînent à notre propre destruction. Non pas peut-être sur le plan biologique, mais en tant qu'ancienne puissance historique, ayant gardé quelques capacités de s'opposer à la domination de l'américanisme. Nous n'avons plus les capacités de superintelligence qui nous permettraient de survivre. Les avertissements de Nick Bostrom ne nous seront d'aucune utilité à cet égard.
Références
1) Présentation de l'Intelligence artificielle dans Automates Intelligents
* De l'IA faible à l'IA forte http://www.automatesintelligents.com/echanges/2008/jui/dossieria.html
* Serge Boisse L'esprit, l'IA et la singularité http://www.automatesintelligents.com/biblionet/2007/oct/boisse.html
2) Eliezer Yudkowsky http://wiki.lesswrong.com/wiki/Eliezer_Yudkowsky
3) Voir notamment « Erreurs de manipulation en série dans les laboratoires américains »« http://www.initiativecitoyenne.be/article-apres-les-virus-pandemiques-crees-de-toutes-pieces-voici-les-erreurs-de-manipulation-dans-les-labor-124145038.html
4) SeedAI http://wiki.lesswrong.com/wiki/Seed_AI
5) Thomas Suddendorf. The Gap. The science of what separate us from other animals Basic Books, 2013
6) J.P. Baquiast. Le paradoxe du sapiens. 2010. Jean-Paul Bayol Ed.