Des réseaux neuronaux de Google inventent leurs propres systèmes d'encryptage.

Les recherches récentes sur les systèmes d'intelligence artificielle (AI) dits évolutionnaires, c'est-à-dire capables de s'adapter pour survivre à un environnement complexe changeant, font de plus allusion au fait qu'ils pourraient se doter progressivement de capacités cognitives analogues à celle d'un humain.

Celles-ci leur permettraient de se donner des représentations d'eux-mêmes et mettre en place des aptitudes au langage et à l'invention – le tout évidemment aujourd'hui encore sous des formes très primitives. Alain Cardon, dont les principaux ouvrages sont disponibles en accès libre sur ce site, explore en détail ce thème.

La littérature spécialisée n'a pas encore donné d'exemples concluants montrant que cette capacité est déjà à l'oeuvre dans des systèmes d'AI existants, sauf peut-être dans le cas d'algorithmes utilisés dans la gestion des marchés financiers, dits « à haute fréquence ». La pratique a montré que ceux-ci pouvaient prendre en quelques millisecondes des décisions d'achat et de vente plus pertinentes que celles des meilleurs traders humains.

Nous mentionnons par ailleurs le fait que Google, ambitionnant de mettre au point un « cerveau global artificiel » ou Google Global Brain, susceptible de se substituer aux cerveaux humains, avait racheté récemment la plupart des laboratoires d'AI travaillant sur ce thème. Il est clair que son intention, très largement partagée avec le Pentagone américain, est de mettre au service de son projet mondial des systèmes d'AI évolués, capables de prendre eux-mêmes des décisions en faveur des intérêts de Google, sans que celui-ci perde pour autant le contrôle d'ensemble de ces logiciels évolutionnaires.

Un progrès décisif

Or une publication sur ces capacités d'auto-décisions dont seront dotés les algorithmes de demain au service de Google vient d'être produite par des chercheurs de Google travaillant sur leprojet Google Brain. Elle montre que des machines capables d'apprentissage profond ou « deep learning » sont capables d'inventer des systèmes de cryptologie leur permettant d'échanger des messages qu'elles seraient seules à déchiffrer.

On objectera que l'objectif est loin de celui intéressant les capacités de décision autonome d'un cerveau humain. Mais quand on connait l'importance sur les sujets dits sensibles qu'ont pris les outils de cryptologie, le fait que des machines puissent communiquer entre elles de façon inaccessible aux humains fait réfléchir.

On trouvera in fine la référence à l'article de ces chercheurs, publié par arXiv. Martin Abadi et David Andersen y montrent que des systèmes dits neuronaux (neural nets), basés sur des architectures de neurones artificiels, ont pu mettre au point par eux-mêmes un système cryptographique n'empruntant pas aux techniques humaines déjà en service. Le système est très basique, mais rien n'interdira aux neurones artificiels de le complexifier ensuite, toujours de leur propre chef.

L'expérience a utilisé trois réseaux neuronaux indépendants, classiquement nommés Alice, Bob et Eve. Alice devait envoyer un message secret à Bob, message que Bob devait décoder. Eve devait s'y efforcer de son côté,à l'insu d'Alice et de Bob. Pour écrire ce message, Alice et Bob devaient produire un texte crypté faisant appel à un certain nombre de « clefs » inconnues d'Eve.

Initialement, les réseaux neuronaux se sont montrés peu efficaces dans cette tâche, mais après 15.000 tentatives menées par Alice pour produire un texte crypté, Bob s'est montré capable de le comprendre. Eve qui ne disposait que d'un petit nombre des clefs nécessaires, n'a pas pu le faire,

Les chercheurs précisent qu'ils n'ont pas à ce jour bien compris comment les réseaux neuronaux Alice et Bob ont procédé pour produire des textes cryptés. Il s'agissait manifestement d'une initiative autonome dans laquelle aucun humain n'était intervenu. Certes les recherches concernant la réalisation de machines capables d'échanger des messages qui ne seraient accessibles qu'à elles-mêmes sont encore dans l'enfance. Mais le projet Google Brain est désormais en bonne voie pour le faire

Référence: https://arxiv.org/abs/1610.06918

Abstract
We ask whether neural networks can learn to use secret keys to protect information from other neural networks. Specifically, we focus on ensuring confidentiality properties in a multiagent system, and we specify those properties in terms of an adversary. Thus, a system may consist of neural networks named Alice and Bob, and we aim to limit what a third neural network named Eve learns from eavesdropping on the communication between Alice and Bob. We do not prescribe specific cryptographic algorithms to these neural networks; instead, we train end-to-end, adversarially. We demonstrate that the neural networks can learn how to perform forms of encryption and decryption, and also how to apply these operations selectively in order to meet confidentiality goals.


Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.