Des annonces plus stupéfiantes les unes que les autres se succèdent concernant l’« intelligence artificielle ». Des entreprises annoncent vouloir acheter l’exclusivité de la production électrique de centrales nucléaires pour alimenter leurs data centers, et on parle de réactiver la centrale de Three Mile Island. Sam Altman, dirigeant d’OpenAI, grand opérateur d’intelligence artificielle, annonce vouloir créer des data centers consommant chacun 5 GW, soit la production de 3 réacteurs EPR. Voilà qui devrait nous faire réfléchir quand, dans le même temps, on essaye de décarboner l’habitat, l’économie et les transports, de les faire passer des carburants fossiles à l’électricité décarbonée, et donc on devrait conserver l’électricité pour eux. On peut même rire jaune quand, dans le même temps on nous dit qu’il faut effacer nos mails pour sauver la planète.
Mais, nous dit-on, les progrès technologiques permettront de diminuer les coûts de l’IA ; des projets de recherche se mettent en place… Certains se réjouissent même que les informaticiens se préoccuperaient enfin de la consommation énergétique ! En fait, depuis que la science informatique existe (années 1950), une préoccupation constante de mes collègues et de moi-même a été de trouver des algorithmes plus efficaces (on peut traiter un problème plus vite à machine égale, d’où moindre consommation énergétique), des architectures matérielles plus efficaces (des machines qui vont plus vite) ; et en dessous, au niveau de l’électronique, les sciences physiques ont permis de construire des transistors toujours plus fins et consommant moins d’électricité. Les progrès ont été considérables : un téléphone portable actuel, alimenté par une petite batterie, a plus de puissance de calcul et de capacité de stockage qu’un supercalculateur de jadis, qui occupait une pièce entière et nécessitait une alimentation électrique et une climatisation spécifiques. Cela n’a cependant pas empêché le numérique de toujours plus consommer, tout simplement parce que la baisse des coûts en matériel et en énergie a rendu économiquement possible le déploiement de masse d’activités jadis rares et coûteuses. Ainsi, dans les années 1970, l’image de synthèse ne consommait globalement que peu d’énergie, car c’était une curiosité de laboratoire ; de nos jours, elle consomme bien plus, justement en raison des progrès techniques qui ont permis de construire des ordinateurs de jeu à prix raisonnable.
Il est donc légitime de penser que, comme précédemment, les progrès en efficacité ne seront pas consacrés à diminuer la consommation, mais à étendre les usages. On peut même le penser de technologies futures, comme le calcul neuromorphique, qui devrait, si on arrive à le faire fonctionner, être considérablement plus efficace que les approches actuelles. Il est de toute façon périlleux de faire reposer une politique sur des technologies dont le développement n’est pas assuré. On peut même frémir quand on entend suggérer que, puisque l’on a perdu la bataille climatique, autant tout miser sur l’IA, censée nous trouver une solution — comme une hypothétique intelligence surhumaine pourrait trouver comment violer les lois de la physique…
Il est temps de réfléchir à nos priorités. Pour le moment, les démonstrations les plus éclatantes de l’IA intense en énergie ont été des générateurs d’images surréalistes à qui on peine encore à expliquer que les mains ont 5 doigts et non 6, des générateurs de rapports de synthèse creux et bourrés d’erreurs, et des chatbots qui servent à expliquer à des humains que non, on ne leur mettra pas un autre humain en face pour régler leur problème administratif ou commercial. On peut douter de la pertinence de mettre tous nos œufs dans ce panier énergivore et d’intérêt social douteux — ceci n’excluant pas, bien sûr, de développer les applications de l’apprentissage automatique qui le méritent.