Croissance et risques identifiés de l'IA à usage général
Pour des raisons clairement affichées de suprématie technologique et militaire, nous assistons à une accélération brutale de la course pour entrainer les plus gros modèles de langage (LLM ou Large Language Model) pour l'obtention fantasmatique d'« IAs » génératives à usage général. Cela génère une dynamique bien connue des mathématiciens dès les années 60s: la malédiction (curse) de la dimension. Plus le modèle est gros, c’est-à-dire plus il comporte de paramètres, plus il faut de données pour l’entrainer. La croissance est exponentielle avec le nombre de paramètres, comme la vitesse de diffusion d’une épidémie (cf. CoViD). Ce principe peut-être perçu comme très théorique et de nombreuses recherches vises à en réduire les effets. Néanmoins, il se concrétise brutalement en imposant la construction de toujours plus de centres de données toujours plus gros qui nécessitent, en conséquence, une croissance elle aussi exponentielle des investissements: de quelques milliards de $ il y a quelques années à des centaines de milliards de $ (resp. €) actuellement.
Dans leur rapport, les 75 experts internationaux (synthèse en français) de L’IA à usage générale sont loin d’être unanimes sur les conséquences des risques sociétaux ou environnementaux mais ils le sont sur certains points mis en exergue dans le rapport.
- Plusieurs initiatives de recherche tentent de comprendre et d’évaluer l’IA à usage général de manière plus fiable, mais notre compréhension globale du fonctionnement des modèles et systèmes d’IA à usage général est limitée.
- L’IA à usage général peut gravement menacer la sécurité et le bien-être individuels et publics (utilisations malveillantes, dysfonctionnements, risques systémiques).
- Plusieurs approches techniques peuvent contribuer aux efforts visant à atténuer les risques, mais aucune méthode connue ne procure actuellement des assurances ou garanties solides contre les torts associés à l’IA à usage général.
En résumé, les risques d’un système d’IA à usage général sont bien identifiés et déjà opérants (infox, gaspillage des ressources en eau électricité) mais l’état actuelle de la recherche ne permet pas de les détecter, les évaluer, les atténuer avec suffisamment de fiabilité sur un système d’IA à auditer. Notons par ailleurs que Yoshua Benjio (prix Turing 2018), co-auteur de ce rapport, est lui beaucoup plus alarmiste sur les risques et leurs conséquences d'un usage immodéré des IAs à usage général. Dès mars 2023 il appelait avec beaucoup d'autres chercheurs à un moratoire sur le développement de l'IA.
"IA éthique" est devenu un oxymore
Bien sûr, certaines applications ou systèmes d’IA peuvent être vertueux, frugaux et utilisés dans l’intérêt général ou le bien commun. Néanmoins ceux-ci sont nécessairement très ciblés et ne nécessitent pas de telles débauches ou gaspillages de moyens, n'engendrent pas de tels risques. Bien sûr des régulations pour une IA "éthique" sont mises en avant jusqu'à l’adoption de l’AI Act européen. Malheureusement, celui-ci est conçu pour défendre les utilisateurs (acheteurs) de systèmes d’IA mais pas les usagers face à l’opacité, la fiabilité ou les risques de discrimination. En effet, contrairement au RGPD, il n'impose pas de renversement de charge de la preuve.
De plus le projet de directive européenne sur la responsabilité de l'IA pour justement la défense des utilisateurs a été abandonné. Ce recul est le résultat de la pression des principaux acteurs, USA en tête, qui récusent une « censure » sous le prétexte fallacieux qu'une réglementation freinerait l'innovation. Soyons réalistes, une régulation ne s'oppose qu'à l’indispensable rapide rentabilité recherchée par les investisseurs privés dont des pétrodollars saoudiens. Le projet d’institut français (INESIA) aura quelques effets de régulation sur les systèmes d’IA (audit ex ante obligatoire) dans les domaines d’application, santé, transports, (annexe II de l’AI Act) déjà régulés par l’Europe, mais aucun dans les autres (crédit, enseignement, emploi, allocations... annexe III) pourtant à haut risque (audit ex post facultatif).
Curieusement, la CNIL ne fait pas partie de l'INESIA alors qu'en faisant respecter le RGPD elle devient le seul rempart contre les premiers abus, la voracité des acteurs vis-à-vis de masses considérables de données personnelles. De même que la convention citoyenne pour le climat fut une opération de green washing sans aucune conséquence concrète, les déclarations actuelles relèvent de l’ethical washing ; "IA éthique" est devenu un oxymore au regard des investissements impliqués.
Quelles limites à la course au gigantisme des LLM
De plus, la course au gigantisme est sans fin, sans limite théorique, contrairement à celle aux armes atomiques dont les limites ou modèles étaient connus. Néanmoins, d’autres limites, principe de réalité, sont ou seront actives : volume des données réelles disponibles, ressources requises (énergétiques, minières, hydrauliques) et investissements financiers.
La première limite est contournée en :
- embauchant des milliers d’employés sous-payés (bullshit jobs) pour annoter des données et contrôler les sorties pour qu’elles soient conformes à une ligne politique ;
- générant des données synthétiques à l'aide d'un LLM préalable ;
- poussant l'administration Trump à dispenser l'IA (fair use) de payer des droits d'auteur;
- adoptant une stratégie d’entrainement par distillation d’algorithme (cf. Deep Seek).
La première stratégie génère un coût humain et de contrôle social inacceptable, la deuxième renforce la standardisation ou l’uniformisation des productions, sans intérêt ou quelconque originalité, la troisième est du racket, la quatrième ne fait que "copier" un LLM maître existant (e.g. GPT) en lui soumettant un sous-ensemble de données pour entrainer le LLM élève à partir des entrées et sorties produites, d'où l'accusation de plagiat développée par le responsable d'OpenAI. Le procédé est certes plus économique que l’entrainement initial du LLM maître mais ne le remplace pas ; Deep Seek n’est qu’approximativement frugal et son « ouverture » sous contrôle étatique chinois.
Pour la limite environnementale et contrairement aux experts internationaux de l’IA, ceux du climat (GIEC) sont unanimes, le dérèglement climatique a déjà et aura des conséquences redoutables. La profusion des centres de données, énormes consommateurs de ressources, va inexorablement accélérer le processus ; le tandem : drill baby drill (Trump 2024) vs. plug baby plug (Macron 2025) en est la parfaite illustration.
Bien sûr l’électricité française, à majorité nucléaire, est, avec celle de la Suède, la plus "décarbonée" d’Europe, mais il serait plus judicieux d’en faire profiter d'autres pays européens très "carbonés" (Allemagne, Pologne). D’autre part l’histoire récente montre que cette sur-production "vertueuse" est à la merci d’une simple corrosion des installations (cf. 2023) ; de lourdes tensions sur les approvisionnements sont à prévoir.
La troisième limite, financière, est la plus volatile, comme les encours boursiers du Nasdaq. L’arrivée surprise de Deep Seek a provoqué une baisse immédiate du cours de Nvidia et une perte en capitalisation boursière de 600 milliards de $. Nvidia est le fabriquant des cartes graphiques (GPU) massivement utilisées dans les super calculateurs pour entrainer des algorithmes.
Depuis l’arrivée de Musk dans les coulisses du pouvoir, l’action Tesla a perdu 20 % et les ventes des voitures de la marque ont chuté brutalement en Europe (64 % en France). Difficile pour un ou une propriétaire d’une Tesla électrique, avec une sensibilité écologique, de rouler pour le principal soutien du plus riche et plus puissant climatosceptique.
Action citoyenne, le boycott des acteurs / profiteurs
En résumé, ces investissements lourds et capitalisations boursières hors sol sont à la merci de l’éclatement d’une bulle spéculative, un simple grain de sable. C’est la limite activable par une action citoyenne pour tenter de retarder celle environnementale, catastrophique.
Comme cela a commencé pour le réseau X-twitter et Tesla, boycottons et appelons à boycotter (dont nos enfants !) tous les produits de haute technologie numérique qui investissent massivement dans les centres de données comme les produits de Meta (Meta AI, Facebook, Instagram, Whatsapp), Microsoft (Copilot, LinkedIn, Windows), Amazon, Apple (Intelligence), Alphabet (Gemini, Youtube), OpenAI (GPT), TikTok, les cryptomonnaies… Aller vous promener sans votre "élégant" téléphone pour profiter de la Nature.
Cette mobilisation des colibris peut paraître inutile au regard du nombre d’utilisateurs mais il suffit parfois d’un simple ralentissement (grain de sable) dans la croissance d’un marché pour affoler les actionnaires humains ou algorithmiques (algo-trading), et induire la chute par effet domino d’actifs devenus hasardeux ou trop spéculatifs.
Philippe Besse (ex-Professeur émérite)
PS. article écrit avec LibreOffice en utilisant un ordinateur de plus de 8 ans sous Linux Ubuntu