Besnard Pierre

Abonné·e de Mediapart

19 Billets

0 Édition

Billet de blog 5 janvier 2025

Besnard Pierre

Abonné·e de Mediapart

Comment j'ai commencé à m’inquiéter et à détester l'IA militaire

Si l'IA discerne Barack Obama blanc au prix d’une débauche d’énergie et de ressources naturelles, pourquoi diable vouloir l'utiliser à la guerre ?

Besnard Pierre

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Une fable, probablement apocryphe, rapporte qu'en 1967, dans les sous-sols du Pentagone dédiés au gargantuesque ordinateur central, le staff du secrétaire à la Défense Robert McNamara alimenta la bête de cartes perforées détaillant l'ensemble des matériels de guerre envoyés au Vietnam. Tout ce qui pouvait être quantifié y passa : navires, avions, tanks, hélicoptères, artillerie, mitrailleuses, munitions... avec une question : « quand allons-nous gagner ? » Lancée le Vendredi, la machine tourna tout un week-end et rendit son verdict le Lundi : « vous avez gagné en 1965 ».

Fable ou pas, McNamara et ses « jeunes prodiges » (whiz kids), formés à l’école de la grande industrie productiviste – Bob avait été cadre puis PDG chez Ford – étaient bien obsédés par la quantification et la rationalisation de tout processus. Conformément à la culture de guerre américaine, ils « géraient » le conflit comme une méga-entreprise de création-destruction, avec tableaux et graphiques agglomérant moult données, de la plus humaniste – nombre d'écoles bâties – à la plus macabre – nombre d'ennemis tués (body count).

Pour traiter ces monceaux d’informations, les têtes d'ampoules du Pentagone déployèrent des calculateurs dernier cri, capables de bien plus d'opérations à la seconde que n'importe quel G.I. Une technologie qui accentua la confusion – toujours d’actualité – entre les dommages infligés à l'ennemi et les contributions réelles aux buts – politiques ! – de guerre. Un techno-solutionnisme promu par des gestionnaires dépolitisant la lutte armée... pour le résultat que l'on sait. Soixante ans plus tard, leurs glorieux.ses héritier.ières, techno-optimistes et managers d'empire, marchent dans leurs pas, sur la voie – sans retour – du « progrès » technologique à même d'assurer le succès à la guerre. Aujourd'hui cette voie passe par l'Intelligence Artificielle, l'IA.

Un non-choix nommé IA

Au niveau mondial c'est la ruée. En 2023, les dépenses militaires globales liées à l’IA étaient de 8 milliards d’euros, une progression d’un tiers par rapport à 2021. Elles pourraient quasi-doubler d’ici à 2027 et atteindre les 15 milliards. Un gonflement dont la France prend sa part – 130 millions en 2024, doublement d’ici à 2030. L’objectif gouvernemental est de « devenir la première puissance militaire européenne de l'IA et dans le top 3 mondial ». La nouvelle Agence Ministérielle pour l’IA de Défense (AMIAD) disposera d’un budget de 300 millions par an, sans compter les coûts d’équipement – exemple : 200 à 300 millions pour un « supercalculateur ». Qu'il est bon de constater qu'au milieu des mesures austéritaires à prendre de toute urgence pour l'avenir du pays, la « Grande Muette » garde ses milliards.

De fait, au sein du consensus politico-médiatique, les dépenses militaires, notamment en recherche et développement (R&D), ne sont jamais critiquables, à peine débattables. Si leur « acceptabilité » par la population peut inquiéter, leur nécessité est au-dessus de tout. En témoignent les commentaires impérieux et les battages promotionnels de la presse : « l’IA : une arme redoutable » (Usine nouvelle) ; « Une technologie qui risque de tout changer sur le champ de bataille » (Les Echos) ; « un enjeu majeur de défense » (Le Monde) ; l’IA « en train de bouleverser le monde militaire à un rythme accéléré » (Le Figaro).

Dans ce bain d’unanimisme, ministres et militaires diffusent leur prêt-à-penser technophile en toute quiétude. A la création de l’AMIAD, le ministre des Armées Sébastien Lecornu déclarait avec fracas que l’IA était un « game changer » (événement changeant la donne) pour les forces armées. Le site de son ministère promeut les « usages concrets » de « l’IA de défense » – par opposition à l’IA « d’attaque » qu’utilise l’ennemi, puisqu’il est l’ennemi. Ces usages sont : la traduction instantanée pour se faire comprendre des locaux en opération ; la formation des soldats ; la lutte contre les « fausses informations » ; l’aide logistique et l’identification de cibles.

Des prémices qui apparaîtront modestes vues les visées du directeur de l'AMIAD, Bertrand Rondepierre : « l’IA en guerre ne se réduit pas au champ de bataille, mais elle va de la vie quotidienne au commandement et aux opérations ». Polytechnicien passé par Google, où il entra, ironie de l'histoire, quelques mois après le barouf de 4 000 employés dénonçant le contrat de la firme avec le Pentagone pour le développement d'une IA militaire – nobles doléances vite balayées par le buffet d'appels à projets similaires qui suivit – M. Rondepierre veut « une accélération » afin de « s’outiller pour gagner la guerre ». L’urgence commande. « D’une certaine façon, l’IA, [c’est] maintenant ou jamais ». Même son de cloche chez son ministre Lecornu : « [en matière d'IA] soit l’armée française prend date, soit elle décroche ».

« Mettre les moyens », « intégrer le top 3 mondial », « l’accélération ou le décrochage ». Cela fleure bon le management d’entreprise qui infuse les discours de la classe au pouvoir. Du rapport Draghi aux interviews de Mme. Lagarde et déclarations de M. Macron, qu’il s’agisse de « transformation » économique, d’intégration bancaire ou de défense européenne, on accélère ou on décroche. Tel le TINA thatchérien (There is no alternative, « C'est comme ça et pas autrement »), le développement de l’IA militaire est un non-choix.

Un serpent-IA se mord-il la queue électrique ?

Pour M. Rondepierre, sur un « champ de bataille […] complètement numérisé », « il faut savoir réagir et s’adapter en temps réel », donc « raccourcir la boucle décisionnelle ». « [En] appréhendant d’une meilleure façon la donnée dans son volume et dans sa masse », l'IA militaire permet le chemin détecteur-cerveau-gâchette le plus court possible. C'est la principale justification pour son emploi : faire face à l'avalanche de données numériques, issue d'une myriade de capteurs, par une force de calcul surhumaine, et accélérer décision et acte.

L'innovation technologique permet aujourd'hui de fusionner des aspects de la chose militaire autrefois disjoints : le renseignement – que les Anglo-saxons nomment intelligence, prémonitoire, non ? – et l'action. Selon l'historienne Katherine Hall, « les processus de production de la connaissance et d'identification des cibles d'une part, et les mécanismes d'exécution de la cible de l'autre, normalement distincts dans le temps comme dans l'espace, se distinguent de moins en moins les uns des autres. C'est ce que Grégoire Chamayou [philosophe, auteur de Théorie du drone] a appelé le « regard qui tue » ».

Observations satellites, surveillance par drones, métadonnées, « schéma de vie » – analyse de communications, de comportements, de réseaux sociaux et d'autres données que des « expert.es » considèrent comme corrélées à une activité ennemie –, le tout passé au tamis d'algorithmes sentinelles-tueurs et boum, cible aussitôt identifiée, oh-si-tôt-! « traitée ».

Contrairement aux Etats-Unis ou à Israël, la France n'a pas pleinement délégué à une IA les capacités d'identification d'une cible ou son exécution, selon la théorie de « l'humain dans la boucle ». Les questionnements éthiques – qu'on s'autorise encore dans les milieux autorisés – tournent autour de la responsabilité. A qui doit revenir la décision de tuer ou ne pas tuer ? Mais ces arguties pèseront peu face aux pouvoirs de calcul et de traitement de gigantesques et grandissantes quantités d'informations permettant aux IA de décider et de tuer mieux et plus vite que les humains. « Raccourcir la boucle décisionnelle » à la nanoseconde d'une réponse automatisée pour une adaptabilité optimale. N'est-ce pas un rêve de gestionnaire-manager ?

Voilà la guerre réduite à un environnement de gamer, une application visée-tir où l'ordi présente des cibles, dont l’élimination est synonyme de progression. Voilà un serpent militaro-industriel qui se mord la queue technologique : déployant toujours plus de capteurs et de machines de surveillance ; générant des geysers de données brutes ; que ne peuvent traiter que des IA ; IA qui identifient, ciblent et, avec ou sans « humain dans la boucle », « traitent » des menaces, sans délai, sans affect, sans discernement. Comme l'écrit Katherine Hall : « plus les processus s'accélèrent, plus les opérateurs humains s'absentent de la décision de frapper, et moins il nous reste de temps et d'espace pour un examen et une réflexion critique ».

Accélération = déshumanisation = automatisation = manque de réflexion. Les « terror-Tuesdays » d'Obama – 563 attaques de drones au Pakistan, en Somalie et au Yémen entre 2009 et 2016 – étaient une esquisse de cette gérance automatisée, peu réfléchie, où « l'élimination ciblée » et ses « dégâts collatéraux » ont engendré plus de cibles qu'ils n'en supprimaient. La boucle se boucle. Plus de cibles, plus de surveillance, plus de données, plus d'IA, plus de bombardements, plus de cibles... Une pensée militaire dépolitisée, qui se résume à penser moins, frapper plus, plus vite, plus fort. L'usage de l'IA militaire par l'armée israélienne contre la population gazaouite est en cela paradigmatique. Un massacre automatisé, sans but ni sens, de personnes transformées en abstractions. Un tir-aux-PNJ géant.

L'apocalyptique accélération*

L’empressement à développer et à utiliser l’IA n’émane pas uniquement de militaires avides de nouveaux jouets ou de managers obsédé.es par l’adaptabilité. « L’accélérationnisme » est un prêche des gourous de la tech, qui mêlent volontiers vitesse et précipitation. Le développement technologique débridé est vu comme le meilleur moyen d’obtenir l’attention du public, des financements et des produits rapidement vendables. C’est aussi un rêve d’ingénieur.e. « L'ingénierie domine la recherche, au point que les chercheurs ne comprennent ce que font les IA que plusieurs années après leur commercialisation ou leur mise en ligne ».

Produits pas finis, passe encore, mais derrière leurs verdicts réputés objectifs et dépourvus d’idéologie, « algorithmes et automates encapsulent tous les biais des humains qui les conçoivent ». Biais discriminatoires, présupposés et stéréotypes issus des données qui les nourrissent ; entraînement par d’autres IA reproduisant leurs erreurs ; complexité de synthétiser en une formule mathématique l’objectif, la tâche intellectuelle à réaliser ; toutes ces difficultés font que ces machines « hallucinent » (hallucinate) selon un euphémisme de la Silicon Valley. Plus prosaïquement, elles se gourent**.

Certaines de leurs « hallucinations » prêtent plutôt à rire, comme lorsqu’elles dépixélisent des photos de Barack Obama pour le « blanchir », qu’elles inventent des jurisprudences pour construire un plaidoyer d’avocat ou qu’elles proposent des offres promotionnelles inexistantes à des clients de compagnies aériennes. D’autres font froid dans le dos.

Dans un essai pour l’académie de West Point portant sur le projet Maven – première IA militaire identifiant des cibles pour le Pentagone – le général Richard Clarke et le professeur Richard Schultz déplorèrent un programme « rudimentaire, avec beaucoup de fausses détections », une précision « d’à peine 50% » et des difficultés à faire « la différence entre hommes, femmes et enfants ». En dépit d’un tel carnet de notes et sans plus de commentaire sur la façon de l’améliorer, les auteurs faisaient quand même la promotion d’un département de la Défense passant d’une organisation centrée sur les gros bataillons (hardware-centric organization) à une dans laquelle l’IA fournirait des données pertinentes pour favoriser rapidement des décisions informées et appropriées. Poésie managériale techno-solutionniste quand tu nous tiens !

Que les IA « hallucinent » ne décourage pas les militaires de les utiliser sur le terrain. En Ukraine, selon Usine nouvelle, iels utilisent des « algorithmes pour améliorer la mise en batterie et le guidage des obus tirés par les canons Caesar ». « Des drones accompagnateurs […] exploitent l'IA pour fonctionner en autonomie même en cas de brouillage. Ils restent capables [de] fournir avec précision la position des cibles identifiées ». D’après Laure de Roucy-Rochegonde de l’IFRI, « sur le champ de bataille, l’IA dépasse les attentes des militaires ». Selon quels critères ? Pour quel rapport fausses détections/vrais positifs ? Mystère, mais doit-on croire la « Grande Muette »  sur parole ?

Pourtant les archives regorgent de faux renseignements ayant conduit à des « bavures ». Dernièrement en janvier 2021, le bombardement du village de Bounti au Mali par des Mirages français. Une « décision informée par IA » produirait-elle d'autres résultats ? Sans doute pas. Mais la possibilité d’attribuer une responsabilité diminuerait. Selon Mme. Roucy-Rochegonde, « on ne peut pas compter le nombre d’algorithmes [utilisés au combat] … et quand un drone fait une frappe, c’est pratiquement impossible de dire qu’il était piloté par une IA ».

Davantage de moyens de combat autonomes, moins de contrôle humain, politique et juridique de l’usage de la force, moins de garde-fous démocratiques. Garde-fous déjà bien insignifiants face au présidentialisme de la Vème, encore marginalisés par l’arme nucléaire – un homme, un bouton –, qui pourraient disparaître devant des « automates computationnels ». Automates qui, selon qu'ils auront été programmés par un Gandhi, un Chamberlain, un Macron, un Trump ou un Docteur Folamour, inclineraient entre tendre l'autre joue et exterminer l'Humanité.

Parmi la longue liste d’incidents nous ayant rapproché de l’apocalypse atomique, soulignons une occurrence en 1983 due à une erreur informatique dans le système de détection orbital soviétique. L’ordinateur avait confondu une rare combinaison de phénomènes lumineux pour un départ de missiles du sol américain menaçant l’URSS. L’alerte fut ignorée non pas une mais deux fois par l’ingénieur Stanislav Petrov aux motifs qu’elle n’était pas corroborée par les radars et qu’il était illogique que les Etats-Unis attaquent son pays avec un seul – puis quatre – missile. Cet acte de désobéissance humaine – qui ne fut pas sans conséquence sur sa vie – empêcha l’engrenage de la Destruction Mutuelle Assurée.

Quarante ans plus tard, en novembre 2022, alors qu’un missile anti-missile ukrainien mal fichu avait frappé en Pologne, des voix s'étaient élevées pour clamer que Poutine attaquait l'OTAN, qu'il fallait riposter et advienne que pourra. Imaginez la réaction d’une IA avec les biais d'un BHL.

Ecociderminator***

Si elle ne fait rien pour nous éloigner du précipice nucléaire, l’IA militaire fait tout pour nous rapprocher du désastre environnemental. D’abord parce que programmée pour causer la destruction de l’adversaire en un minimum de temps pour un maximum d’efficacité, elle ignore de fait les conséquences écocidaires de son action. A l'image des machines pilotant des fonds d'actifs financiers – dont le but est de faire rapidement un maximum d’argent – qui détruisent aujourd'hui davantage l'environnement que leurs homologues dirigés par des humains.

Plus encore, l’IA militaire repose sur le paradoxe qui veut que plus l’objet – le drone – est « autonome », plus il dépend de lourdes infrastructures. Réseaux de télécommunication ; centres de stockage de données (datacenters) ; écrans ; condensateurs ; disques durs ; circuits intégrés ; fibres optiques ; semi-conducteurs. Autant d'infrastructures coûteuses à produire, à entretenir et à protéger. Selon l'historien militaire Michael Neiberg, « la même technologie qui permet à un chef de guerre de diriger, en temps réel et par voie satellitaire, une opération à des centaines de kilomètres de distance, peut devenir un point faible ».

Quintessence de cette problématique : le datacenter. Un monstre de technologie qui concentre câbles, équipements de sécurité, installations informatiques et électriques. D'après un rapport de l’ADEME, les systèmes de refroidissement « peuvent mobiliser jusqu’à la moitié de l’électricité d’un centre de données » moyen et consommer 600 000 mètres cubes d’eau par an – l'équivalent des besoins de 3 hôpitaux. S'ils s'échappent, les gaz fluorés utilisés dans les systèmes de production du froid ont un pouvoir réchauffant plusieurs milliers de fois plus puissant que celui du CO2. Ils subsistent aussi plus longtemps dans l’atmosphère, entre 7 et 500 siècles selon les gaz. Prière à l'ennemi de ne pas les cibler.

Plus on élabore d'objets « intelligents », plus il faut de ressources et d'énergie pour les fabriquer. Pour créer ses semi-conducteurs, l'entreprise TSMC mobiliserait une puissance équivalente à 2 ou 3 réacteurs nucléaires – l'électricité taïwanaise est carbonée à 43%. La quantité de matières nécessaire à la production d'une puce électronique de 2g est de 32 kg, un rapport de 16 000/1. Le vieux téléphone d'état-major sur lequel De Gaulle apprit la tentative de putsch à Alger comprenait 10 éléments du tableau périodique. Pour utiliser la traduction instantanée en opération aujourd'hui, un sergent utilise un appareil constitué de 54 éléments différents.

Cuivre, aluminium, fer, zinc, manganèse, lithium, cobalt, graphite, palladium, argent, tantale, antimoine, béryllium, ruthénium, gallium, germanium, terbium... j'en passe et des plus imprononçables. Tant de ressources à extraire, à raffiner, à transformer, à transporter. L'IA se situe au bout d'une chaîne extractiviste et logistique de plein pied dans la mondialisation : mines sud-africaines, chiliennes ou congolaises, plaques de silicium japonaises, appareils de photolithographie hollandais, pompes à vide autrichiennes, roulements à bille allemands, logiciels américains. De quoi faire passer l'organisation du D-Day pour une course de doris.

Simplement entraîner une IA fait grimper les bilans énergétique et carbone des forces armées. Des chercheurs ont récemment calculé que nourrir une IA avec d'importantes volumes de données pouvait générer autant d'émissions de CO2 que 5 voitures durant tout leur cycle de vie. Dés 2020 une recherche menée par des scientifiques de l’université de Copenhague concluait qu’une seule session lancée sur le robot conversationnel GPT-3 « requiert la même quantité d’énergie que celle utilisée annuellement par 126 foyers danois, ou bien qu’un aller-retour en voiture depuis la terre jusqu’à la lune ».

Or tout système militaire doit être jugé sur sa soutenabilité logistique, économique, sociale et donc environnementale. Alors que Livres blancs de la Défense et rapports stratégiques font du réchauffement climatique et de l'effondrement écologique des dangers réels et pressants, développer l'IA militaire les accentue et diminue la résilience des armées. Plus pernicieux, ce sont les zones géographiques les plus en amont de la chaîne de fabrication qui payent le plus lourd tribut matériel, environnemental et humain du développement de ces outils. C'est au prix d'une série de guerres atroces au Congo qu'est créé l'outil de défense « intelligent ».

Comme l'écrit le groupe Marcuse, « [la technique] traduit des orientations collectives et des rapports de force. Elle assoit le pouvoir de certains groupes et donne une forme à leur domination sur la nature et les autres hommes ». Nos accoucheurs d'IA enfantent un monde où leurs jouets technologiques, en raison de leurs impacts spatial, matériel, écologique et humain génèrent crises, crimes, conditions inhumaines de travail et désastres sanitaire et environnemental, dont iels ne sauront jamais se soustraire. Une façon de plus de boucler la boucle. Dégradations du climat et de l'environnement = plus de crises = plus de cibles = plus d'IA = plus de bombardement = plus de dégradations...

Vite répondre à L('I)A question

Michael Neiberg prévient : « les sociétés occidentales [...] semblent parfois envoûtées par la technologie, où elles voient une sorte de panacée ». Persuadé d'avoir gagné la Guerre froide et soumis le monde par le savoir, l'Occident poursuit inlassablement sa quête de suprématie par la fuite en avant technologique. Par corollaire ses fondé.es de pouvoir sont scientifiques, informaticien.nes, ingénieur.es, managers, éminent.es représentant.es des classes intellectuelles. Celles-là mêmes qui, selon le sociologue Christopher Lasch, « vivent dans un monde d'abstractions et d'images, un monde virtuel consistant en modèles informatisés de la réalité […] par opposition à la réalité physique immédiate, palpable ». Celles qui poussent à la même pensée abstraite, faite de 1 et de 0, du trading haute fréquence au champ de bataille numérisé.

Lasch poursuit : « le contrôle est devenu leur obsession. Dans leur élan pour s'isoler du risque et de la contingence – pour se prémunir des aléas imprévisibles qui affligent la vie de l'homme –, les classes intellectuelles se sont séparées non seulement du monde du commun qui les entoure mais aussi de la réalité elle-même ». Réalité matérielle, pesanteurs historiques et profonde dimension politique de toute activité humaine. En cela ce sont les pires stratégistes possibles. Leurs illusoires courses aux « armes miracles », leur incapacité à penser les fins au delà des moyens et leur arrogance consubstantielle ont déjà causé et entretenu nombre de guerres désastreuses, du Vietnam à l'Ukraine.

Fréquentant les mêmes conseils d’administration et les mêmes quartiers, formées aux mêmes écoles, partageant la même foi techno-scientifique entrepreneuriale et la même ambition de dominer le monde – pour le plus grand bien de l’Humanité naturellement – ces « élites éclairées » s'isolent toujours plus des conséquences concrètes de leurs décisions. Pourtant « tout humain est capable de réaliser une analyse coût/bénéfices d'une opportunité qui s’offre à lui. « Le jeu en vaut-il la chandelle ? » […] est même la clé de la survie de l’humanité ». Pour ce qui est de l’IA militaire, la question devra être vite répondue.

*Cette partie est nourrie de Pourquoi l'IA voit Barack Obama blanc ? par Victor Chaix, Auguste Lehuger & Zako Sapey-Triomphe, respectivement doctorant en humanités numériques, ingénieur de recherche en IA et ingénieur, Le Monde diplomatique, novembre 2024. Les citations sont leurs, sauf précision contraire.

**Cette partie reprend aussi l'article If AI thinks Georges Washington is a black woman, why do we let it pick bomb targets? du journaliste Matt Taibbi paru sur Substack.

***Cette partie puise ses informations dans le remarquable livre L'Enfer numérique : voyage au bout d'un like, Les liens qui libèrent, 2023, du journaliste Guillaume Pitron. Les citations sont les siennes sauf précision contraire.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.