Systèmes d'Armes Létales Autonomes (SALA) et Non-Droit à la Vie

 

SALA et non-droit à la vie

 

SOMMAIRE


Présentation

Pourquoi ce sujet maintenant ?

  • Le contexte international
  • Le concept d'autonomie
  • Les armes en cours d'autonomisation aujourd'hui


Les questions principales

  • La morale
  • Le droit et la justice


Graal ou entropocène

  • Les sciences et technologies de l'intelligence artificielle
  • À quelles fins utiliser l’intelligence artificielle
  • Renseignement : légalité ou légitimité ?


Réunion “au sommet” mais mobilisation citoyenne à faire croître

  • Fuite en avant et peur de l’apocalypse
  • Le Vatican
  • HRW
  • ICRAC


Conclusion : résolument pour la vie

 

NB : Cet article vient d'être publié dans la revue internationale de philosophie contemporaine La Deleuzianahttp://www.ladeleuziana.org/

 

 


PRÉSENTATION

À l'ère de l'anthropo-scène 1, les médias du vieil Occident se centrent majoritairement sur l'image génératrice de sensations,biaisée et univoque des robots ludiques ou ménagers, censée causer la protention subliminale qui recentrera les foules sur ces nouveaux objets potentiels de consommation.

Ils ne se sont pas faits forts, ces deux dernières années, de mettre en lumière les bouleversements fondamentaux, que dis-je la “robolution” qui se fait jour sous les sirènes de la technologie : ils n'en véhiculent que l'image d'Épinal, prétendument porteuse de progrès et d'économies en tous genres.

Dès avril 2013, publiant la “Théorie du drone2, Grégoire Chamayou en a pourtant révélé les premiers aspects terrifiants : enfers technologiques qui se préparent au-dessous de notre regard distrait, baladé entre les déclins économiques, sociétaux aux effets bien visibles, sur fond de déliquescence des consistances qui tiennent l'espérance.

En réaction à cette prise de conscience violente, il m’est apparu indispensable, pour que le mot « vivre » garde son sens immémorial, d’approfondir davantage l’actualité technologico-militaire et stratégique : elle est lourde de cauchemars en préparation, et les politiques, à l’initiative de la France en mai dernier en sont bien conscients, qui tentent de lutter à contre-courant – mais le peuvent-ils encore ?

« La technologie n’est pas invincible, écrit Grégoire Chamayou 3, c’est là un mythe qui conduit à la passivité. »

Aux États-Unis cependant, les développements parallèles et plus discrets de la robotique ont alerté la société civile.

Je vous proposerai donc un saut de l'Amérique du Nord au centre de l'Europe, à deux pas du lac Léman, pour plusieurs rendez-vous.

 

Préparons-nous cependant à ce premier reportage (3:24) :

Il nous présente les temps robotiques à venir, déjà extrêmement élaborés du fait d'une structure réticulaire richement financée :l'image initiale revisite l'aspect ludique conventionnel de la société du confort moral et de l'entertainment, que le cinéma et les jeux vidéo ont diffusée sans relâche pour nous y accoutumer. Mais la robolution, militaire en ses prémisses, vient ici aussi se déplier, inopinément, et heurte de fait notre regard qui devienteffaré”.

Nous rencontrerons à ce propos un nouveau Sisyphe 4, un chercheur bien actuel qui prend le temps de ses choix : https://www.youtube.com/watch?v=R_xyp_M9j1A

Dario Floréano 5 compte en effet parmi les rares qui tiennent, sur ce secteur aux applications si prometteuses, à placer au premier plan la “défense de la vie” en tant qu'éthique de la science appliquée, mais essentiellementen tant que philosophie.

Scientifique, il s'appuie sur un point de vue énoncé également par La Deleuziana (http://www.ladeleuziana.org/) :

« Si [la] philosophie ne veut pas se retrouver sans les conditions “matérielles” pour pouvoir exercer, [elle] doit surveiller en permanence (…) l’ambivalence de la technologie et la fragilité des processus de subjectivation, deux énormes problèmes de la contemporanéité qui doivent être diagnostiqués dans une pensée critique avant qu’il ne soit trop tard. »

 

Je citerai un second exemple de scientifique éminent, en mathématiques cette fois-ci, qui avait posé, irrévocablement, un regard intransigeant sur la philosophie du savoir humain : Alexander Grothendieck 6.

« Son enfance avait été des plus éprouvantes : il fut interné avec ses parents au camp de Rieucros, en Lozère avant que son père ne décède à Auschwitz. Parvenu cependant à intégrer l’Institut des Hautes Études Scientifiques, lui sera reconnu le titre de docteur en 1953 et attribuée la médaille Fields (équivalent en mathématiques du prix Nobel) en 1966.

Pourtant, il regarde au-delà : il refusera cette même année de se rendre à Moscou pour recevoir son prix, protestant contre l'internement de deux écrivains russes. Il refusera de même en 1988 sa part du prix Crafoord pourtant doté de 1,4 millions de francs. Et alors qu’il est reconnu internationalement, il quittera brusquement l’IHES, en 1970, car l'Institut vient d’accepter le principe de son financement partiel par le ministère de la Défense.

Il fonde alors le groupe écologiste et politique “Survivre et vivre” dans le but de propager ses idées antimilitaristes et écologistes. Grothendieck avait obtenu un poste de professeur associé au Collège de France mais, plutôt que d’enseigner les mathématiques – ce qu’on attendait de lui – il dispensa un cours intitulé « Faut-il continuer la recherche scientifique ? » En 2010, à 82 ans, alors qu'il a rédigé près de 20 000 pages de notes, il s'opposera à toute publication posthume.

Alexander Grothendieck vient de décéder ce mois de novembre 2014, emportant l'essentiel de ses recherches secrètes. »

Ce second positionnementa d'autant plus de gravité qu'Assaf Naor 7 a réussi à transférer en informatique théorique les résultats (publiés en 1953) du théorème de Grothendieck 8: « Cela aboutit à cette situation extraordinaire que la constante de Grothendieck découverte dans la géométrie des espaces de Banach, devient une constante critique sur un problème de calculabilité en informatique théorique. »

Nous nous interrogerons sur les divers aspects de cette robolution :

Le psycho-pouvoir à l’œuvre, comme nous allons le voir, maîtrise désormais – serait-il donc trop tard ? - tant le contexte médiatique global que les outils, à la fois conceptuels et techniques : les savoirs intégrés dans les machines, produits par l’humain puis spoliés via les algorithmes, en sont au point de détruire tout métier, tout travail véritable en responsabilité et initiative voire tout savoir qui individue 9.

Le psycho-pouvoir peut, de la même manière, agir simultanément sur le plan de la génération des subjectivations 10 et du contrôle pointilleux de leurs effets concrets, en temps réel, (économiques, financiers et de contrôle des échanges informatisés en réseaux de personnes 11), tout en ayant développé discrètement en amont les moyens techniques militaro-sécuritaires pour identifier précisément les oppositions éventuelles et les éliminer.

Cette dernière question fait aujourd’hui l’objet de ce nouvel article – dont l’actualité “effarante” (je répète volontairement ce terme : “ce coup porté à l’humanité tout entière) amplifie, dans sa réalité soudain mise à jour, l’étendue du désastre qui s’annonce, bien au-delà de la notion de précarité matérielle, liée à la subsistance, aux statuts social et professionnel, familial, de la santé et de l’éducation.

 

Non, le psycho-pouvoir envisage désormais ouvertement à son sommet l’éventualité d’un eugénisme automatique, fin industrielle et autonome de l’opposition vivante à sa domination sans partage.

Je vous propose de visionner ces deux autres courtes vidéos pour commencer :

https://www.youtube.com/watch?v=LvHlW1h_0XQ (5:15)

www.vice.com/fr/video/israels-killer-robots (10:57)

 

 

 

POURQUOI CE SUJET MAINTENANT ?

Du 13 au 16 mai 2014, à Genève, s’est tenue au plus haut niveau la “Réunion informelle d’experts sur les Systèmes d’Armes Létaux Autonomes (SALA)”.

Une seconde Réunion vient de s'y tenir du 10 au 14 novembre, qui en envisage une troisième, du 13 au 17 avril 2015 12.

 

Si le développement intensif des drones, sur le plan militaire, a été intégré en décembre 2013, dans la loi de programmation de l’armée française, comme nous l’avons vu 13, et fait l’objet de concertations au niveau européen entre certains États, ce vaste champ technologique à visée stratégique n’est pas sans poser aussi des questions juridiques.

Or, un document très récent 14, intitulé paradoxalement “Disarmament”, précise le calendrier des rencontres dans le cadre de la “Convention on Certain Conventional Weapons” CCW.

Certes, le discours introductif du Sous-Secrétaire Général des Nations Unies Mr Michael Møller est positif dans son intentionnalité objective :

« This Meeting of Experts is only a first step towards addressing lethal autonomous weapons. In doing so, I urge delegates to take bold action. All too often international law only responds to atrocities and suffering once it has happened. You have the opportunity to take pre-emptive action and ensure that the ultimate decision to end life remains firmly under human control.

In this regard, Protocol IV to the CCW prohibited the use of blinding laser weapons before they were ever deployed on the battlefield. Clearly, Protocol IV serves as an example to be followed again.

Geneva has a historical record that is second to none for achieving results in disarmament and international humanitarian law negotiations. Testimony to this are the Geneva Conventions and their Additional Protocols, the Biological and Chemical Weapons Conventions, the CCW and its Protocols, to name but a few examples. Geneva remains the home of disarmament and international humanitarian law and I look forward to CCW States Parties adding to this proud tradition. 15»

M. Jean-Hugues Simon-Michel, Ambassadeur et Représentant Permanent de la France, vient de présider à Genève cette Réunion informelle d’experts nommée “Convention sur Certaines Armes Classiques” dont le titre, apparemment vague ou peu déterminé, marque une réalité bien concrète et révolutionnaire (mais au sens de l’inverse mathématique : top down) : il s’agissait dans le cadre du “mandat de discussion” reçu [du Président de la République, Chef des Forces Armées] de préciser les “Aspects techniques des SALA ”, soit des armes à décision logicielle totalement autonome ayant pouvoir de mort.

Réunion d’importance à laquelle étaient conviés les représentants de 87 gouvernements, parmi les 117 États Parties qui ont adhéré à la Convention sur les armes classiques “, 400 experts de toutes nationalités, afin de préciser les “concepts pertinents pour la suite de la discussion” relatifs aux “questions relatives aux technologies émergentes dans le domaine des systèmes d’armes létaux autonomes, dans le contexte des buts et objectifs de la Convention.

 

Il est à noter parallèlement le même propos d’intentionnalité positive dans le communiqué du porte-parole du Ministère des Affaires Étrangères Français :

L’objectif de cette réunion est d’appréhender les enjeux éthiques, juridiques et opérationnels soulevés par le développement de nouvelles technologies dans le domaine de l’armement.

La capacité du droit international existant à encadrer l’utilisation éventuelle de ces systèmes d’armes, qui ne sont pas encore opérationnels, est au cœur de ces enjeux.16

 

M. Simon-Michel a proposé trois points “essentiels parmi plusieurs” :

  • La prise en compte de technologies qui, par définition, n’existent pas encore ou sont en cours de développement ; ceci excluant – du point de vue de [sa] délégation, les systèmes existants.

  • La mention du caractère létal de ces armements, impliquant d’écarter certains types d’armes, utilisables dans des contextes particuliers.

  • La question centrale de l’autonomie pleine, laquelle implique à ce stade :

- L’absence de supervision humaine

- Un caractère non-prévisible des actions

- Une capacité d’adaptation à un environnement évolutif.

L’exclusion [concerne] les systèmes d’armes automatisés ou téléopérés. Les systèmes d’armes extrêmement complexes impliquent le recours à l’intelligence artificielle et aux capacités d’auto-apprentissage.

 

 

Le contexte international

L’information y est ambiguë : « Les technologies n’existent pas encore tout en étant en cours de développement » : il est à entendre que les efforts de recherche, fortement financés (donc par des États Parties) sont en cours d’aboutissement, même si des problématiques ne sont pas encore résolues.

Cela signifie aussi que, faute que chaque État accède à la maîtrise de ces armes concomitamment, des craintes de perte de suprématie se manifestent 17, qui font le jeu des protocoles diplomatiques, afin de contourner des déséquilibres géostratégiques possibles, en amont des risques, afin d’assurer la pérennité des alliances.

Cela peut aussi vouloir dire, en creux, que des coopérations technologiques sont nécessaires, encadrées ouvertement par des réflexions “éthiques, juridiques et opérationnelles” car le droit international existant ne saurait encadrer en l’état l’intrusion démoniaque de ces “ROBOTS TUEURS” 18.

Car le développement de l’intelligence artificielle est bien l’espoir des gouvernements, sur le plan économique également, qui doit passer par un retour sur investissement 19, précisément dans une période de crise, et à une époque où même la concurrence entre alliés fait rage, 20 ce qui n’exclut pas la coopération des puissants, par-delà des populations. 21

D’ailleurs, qui s’intéresse aux drones ou aux robots tueurs ? peu en ont entendu parler, sinon par les jeux vidéo, la science fiction ou le cinéma ; et les drones ne sont présentés au grand public que comme appareils photo ailés, tant à la télévision que par le marketing. Le Pakistan ou l’Afghanistan cela ne passionne pas (au sens de déclencher des passions), et les ONG centrées sur la défense des Droits Humains voient le nombre de leurs adhérents chuter régulièrement. 22

Les médias, à chacune de ces deux réunions, s'en sont peu faits les relais auprès de l'opinion. Il est vrai que “seulement” 118 pays ont délibéré conjointement.23

D'ailleurs, dès 2007, Dyke Weatherington, deputy director of the Unmanned Aircraft Systems Task Force, disait : « Drone aircraft and ground-based robots already are proving their worth in Iraq and Afghanistan. (…) Continued development of artificial intelligence (robotics) technology may one day produce autonomous, “thinking” unmanned systems that could, for example, be used in aerial platforms designed to suppress enemy air defenses»24

L'idée a fait son chemin, comme cet organigramme de R & Duniversitairo-industriel” le prouve (cf. cartographie et détail ici 25).

Il est donc à craindre, à l'avenir, qu'un État puisse ainsi prétexter qu'il s'attaque au terrorisme ou à un groupe d'insurgés qui mettrait en danger sa souveraineté ou sa stabilité, pour justifier des attaques ciblées donc prétendues humanitairesavec ses SALA, afin d' « éradiquer » (on ne dit plus « épurer ») les boucs-émissaires du moment.

Human Rights Watch, alerté et engagé contre ces systèmes d'armes dénommées aussi Lethal Autonomous Weapons Systems “LAWS” (!), a fondé et coordonné «la “Campagne pour interdire les robots tueurs”, coalition internationale de 51 organisations non gouvernementales dans une vingtaine de pays qui a été créée en avril 2013. Le 12 mai 2014, vingt lauréats du prix Nobel ont publié une déclaration conjointe soutenant l’appel de la campagne à une interdiction préventive de l’élaboration, de la production et de l’utilisation des armes entièrement autonomes. » 26

Le 12 novembre 2014, une déclaration inter-religieuse est venue soutenir cette Campagne :

«An inter-religious declaration released this week by PAX in cooperation with Pax Christi International endorses the call for a preemptive ban on fully autonomous weapons.

Signed by more than 70 faith leaders of various religious denominations, including Archbishop Desmond Tutu, the statement shows how ethical concerns over killer robots are widely shared within society. » 27

 

Le concept d'autonomie

Raja Chatila, expert de l'Institut des systèmes intelligents et de robotique (ISIR et UPMC/CNRS Paris) en détaille les points essentiels 28 :

Un système doté de 4 aptitudes fondamentales (basic capacities) :

  1. Acquisition de données par des capteurs.

  2. Interprétation de données : pour extraire l'information et construire des représentations à partir des données acquiseset de la connaissance pré-existante.

  3. Prise de décision : exploiter l'information et la connaissance pour délimiter et élaborer un plan d'action, pour atteindre un objectif ou réagir à des événements.

  4. Exécuter une action dans le monde réel via des actionneurs ou d'autres dispositifs.

Deux aptitudes additionnelles

  1. Communicationavec des opérateurs, des utilisateurs ou d'autres machines.

  2. Apprendre pour perfectionner les représentations du monde ou l'efficience des actions au vu de l'expérience.

  • Ces aptitudes peuvent être développées selon différents degrés de complexité.

  • Elles peuvent être intégrées à un “corps” unique ou distribuées..

 

Autonomie

  1. Capacité d'un système à décider et agir sans l'assistance d'un autre agent.

  2. L'autonomie peut être définie en relation avec les aptitudes mentionnées et leur intégration.

  3. Autonomie opérationnelle:

    1. Rattachée à des traitements de données pour construire des représentations fondamentales telles que des modèles de terrains, ou des contrôles de mouvements/d'actions, par exemple pour suivre des trajectoires ou éviter des obstacles.

    2. Présente largement dans les systèmes déployés aujourd'hui.

  4. Autonomie décisionnelle

    1. Rattachée à un raisonnement calculé fondé sur la perception et l'action, pour évaluer des situations et prendre des décisions pertinentes.



C'est effectivement à partir de ce point 4a appuyé sur le 6) du slide précédent, que se préfigurel'épée de Damoclès intolérable pour l'humanité : chacun peut s'interroger sur la forme de construction expérimentale de “savoir” et de “savoir-faire” qu'une machine peut intégrer et partager (“integrated or distributed) dans un système qui évalue des situations et prend des décisions non insignifiantes (“non trivial), euphémisme indécent puisqu'il s'agit en l'occurrence du choix de tuer !

L'expert français se veut toutefois rassurant :

 

Conclusions

  1. L'autonomie est une notion relative.

  2. Les systèmes automatisés (non autonomes) existent et sont capables d'accomplir une large variété de tâches dans des environnements simples.

  3. Des tâches complexes réalistes et des situations dynamiques requièrent des aptitudes de compréhension en temps réel et de prise de décision non réalisables à court terme.(in the near future).

 

Alain Cardon, (LITIS INSA de Rouen), a écrit en 2012 Modélisation constructiviste pour l'autonomie des systèmes 29: il y établit des ponts entre les disciplines, prend du recul par rapport aux théories spécifiques pour prendre en compte des modèles naturels rompus à l'autonomie : « Il ne s'agit pas de considérer comme identiques les deux types d'autonomie, mais il faut que la très profonde notion d'autonomie des organismes vivants soit systématiquement prise en compte pour être transposée dans l'artificiel. (…) La notion de science composée de multiples disciplines disjointes et indépendantes, avec une étrange notion d'ordre, est une invention de la société technologique qui n'a que peu de valeur pour la compréhension du monde. Nous avons donc tenté, comme à notre habitude, une démarche pluridisciplinaire. »

De la notion de “compréhension du monde” à celle de “conscience” que pourrait acquérir un système, il y a un pas que franchit Giulio Tononi (chaires David White de médecine du sommeil et de Science de la conscience à l'université du Wisconsin) :

Il mène des recherches sur la Théorie de l'Information Intégrée (ITT) : « quantité d'information intégrée à laquelle peut accéder un système qui permet de mesurer le degré de “conscience” dont ce système peut disposer. » « Il s'agit non pas d'une étude biologique du système présumé conscient, mais d'une étude mathématique, dont il a proposé les bases dans l'article fondateur "Consciousness as Integrated Information: a Provisional Manifesto" du Biologique" paru dans le Bulletin (Biol. Bull. December 2008 vol. 215 no. 3 216-242). »30

 

Noel Sharkey 31- - demanda, le 10 avril 2014, à Dublin, au gouvernement irlandais d' «assurer le leadership sur la question cruciale de garantir le contrôle humain des décisions de ciblage et d'attaque en bannissant les armes totalement autonomes.»

L'ICRC chercha à bien définir la thématique large de la réunion de mai 2014, qui couvrait toute arme pouvant indépendamment pister, sélectionner et attaquer une cible « Cela exclut les systèmes d'armes dont les “fonctions critiques” sont télécontrôlées par un opérateur humain. La question centrale est l'usage de la force en l'absence potentielle de contrôle humain sur ces “fonctions critiques”32»

 

 

Les armes en cours d'autonomisation aujourd'hui

Les postulats avancés, apposés aux conclusions rassurantes de Raja Chatila, laissent pourtant une inquiétude vive relative aux buts poursuivis : des recherches actives sur le concept d'autonomie sont actuellement (le 6/10/2014) en phase opérationnelle : « The Future Is Now: Navy’s Autonomous Swarmboats Can Overwhelm Adversaries » 33 c'est-à-dire : « Le futur c'est maintenant : des bateaux autonomes en essaim de la Navy peuvent terrasser leurs adversaires ». Le paragraphe suivant le prouve :

« The technology—called CARACaS (Control Architecture for Robotic Agent Command and Sensing)—is under development by ONR, and can be put into a transportable kit and installed on almost any boat. It allows boats to operate autonomously, without a Sailor physically needing to be at the controls—including operating in sync with other unmanned vessels; choosing their own routes; swarming to interdict enemy vessels; and escorting/protecting naval assets. (…) In the demonstrations, as many as 13 Navy boats operated using either autonomous or remote control. First they escorted a high-value Navy ship, and then, when a simulated enemy vessel was detected, the boats sped into action, swarming around the threat. (See CARACaS swarming boat video.)»

 

On peut voir sur cette vidéo 34, à 1:24, le tableau de commande de ces bateaux (ci-dessus à gauche), sur lequel de petits boutons vont suffire à témoigner du basculement du système de “contrôle à distance” à “contrôle autonome”.

Pour l'instant, la boucle d'autonomie est encore sous contrôle humain et ne concerne que les déplacements relatifs, coordonnés en milieu physique évolutif, avec toutefois un premier objectif assigné : escorter et protéger ; ce qui dénote un premier niveau d'interprétation et de choix de protocoles par le système, qu'il doit hiérarchiser en générant des choix.

La question cruciale me semble désormais être l'interprétation que les humains en charge du contrôle peuvent avoir des interprétations du système qu'ils ont paramétré : Jusqu'à quand pourront-ils être certains de garder la main sur les choix finaux, vu l'interactivité croissante, co-causale, qui de plus nourrit l' “expérience” - sorte de kinesthésie artificielle - de ce système en évolution (“apprentissage”) ?

Chez les fournisseurs privés, tels iRobot « iRobot uPoint™ Multi-Robot Control System Introducing the intuitive way to control robots. »35 ou chez InsideGNSS 36, la proposition est comparable. Parallèlement à ces évolutions des systèmes en réseau, les développements d'armes qui pourraient être gérées de façon autonome se développent, comme le laser weapon system (LaWS) qui vient d'être déployé et rendu opérationnel pour la première fois, le 10 décembre 2014, sur un navire dans le Golfe Persique. 37

La ligne suivie par la DARPA est claire :

Dans un document intitulé Unmanned Systems Integrated Roadmap FY2011-2036, le département américain de la Défense a écrit qu’il « envisage des systèmes sans pilotes fonctionnant en harmonie avec des systèmes pilotés, tout en réduisant graduellement le degré de contrôle humain et de décision requis pour la partie sans pilote de la structure ».38

Un article du New York Times 39 cite plusieurs systèmes de missiles en cours de développement ou en fonctionnement avec des degrés et modes divers de contrôle humain :

Le prototype US Long-Range Anti-ShipMissile (LRASM) prototype développé par Lockheed Martin pour l'Air Force et la Navy, lancé depuis un bombardier B-1 40 : « Fondamentalement, ce missile furtifaura suffisamment d'Intelligence Artificielle à bord pour survivre via la dissémination automatique de récepteurs de données radar d'alerte, couplés à des mesures de service de haute qualité électronique. En d'autres mots, il flaire les émissions électroniques ennemies, les classifie, les géolocalise et ensuite, soit il parvientà comprendre quelle route lui offre les meilleures chances de survie, soitil décide d'attaquer directement l'une de ces sources de menaces. »41

Le missile norvégien Norway’s Joint Strike Missile, prévu pour les avions de combat naval. « La technologie employée pour la sélection de la cible apporte au NSM des capacités indépendantes évoluées de détection, reconnaissance et discrimination des cibles en mer ou sur les côtes. » 42

Le missile anti-radar “Harpy”, qui détecte des signaux radar ennemis et détruit les cibles avec une ogive hautement explosive. « Il vole vers sa cible de façon entièrement autonome, ce qui en fait une arme de type "tire et oublie" *. Il peut opérer de jour comme de nuit, et survoler une zone pendant des heures. Contrairement au missile HARM dont la trajectoire est prévisible, le Harpy peut avoir une trajectoire beaucoup plus aléatoire. Utilisé en nombre conséquent, il peut même servir au bombardement de zone. » 43

* missile de troisième génération dont le guidage après lancement ne requiert plus l'intervention du servant de la plate-forme de tir. C'est donc un missile “autonome” ou bien “missile à vol autonome” après le lancement (…) Certains systèmes offrent la possibilité soit de continuer à transmettre des informations à l'engin après son lancement, soit de laisser celui-ci utiliser ses données initiales seulement.44

Le missile britannique Brimstone "tire et oublie", en usage en Iraq. 45

La notion d'autonomie, polysémique, est bien l'une des premières étapes que la CCW a cherché à définir à Genève, difficilement, puisque les frontières en sont variées et mouvantes.

Le 24 novembre 2014, Stopkillerrobots s'interroge : « Alors qu'émerge internationalement le débat sur les systèmes d'armes autonomes, les caractéristiques de l'autonomie dans ces systèmes font l'objet d'un examen minutieux. »

Max Gubrud, de l'ICRAC décrit le LRASM au New York Times comme “truc joliment sophistiqué que j'appellerais intelligence artificielle [opérant] hors d'un contrôle humain”.

Le Centre pour une nouvelle sécurité de l'Amérique (CNAS), basé à Washington DC les considère comme des “armes à guidage de précision” contrôlées comme “une personne choisit les cibles de son combat”.

Human Rights Watch et d'autres ont appelé ces systèmes de missiles des exemples de “précurseurs” de systèmes d'armes totalement autonomes.

The Pentagon parle du LRASM comme d'une arme “semi-autonome.” 46

 

Concomitamment, un document vient de paraître 47 en France, qui constitue une anticipation des futurs des guerres, envisagés à l'horizon 2040, soit dans 26 ans ! Ce n’est pas le synopsis d'un prochain film d’horreur, ni la pensée d’auteurs de science-fiction, mais la prospective bien concrète d'ingénieurs généraux de l’armement.

Chacun pourra y découvrir les tendances industrielles à la miniaturisation, visant l'adaptation à absolument tous les milieux de même qu'à toutes les échelles spatiales, visibles et invisibles, issues de recherches en cours sur le biomimétisme et l'infiniment petit.

On peut y lire également la perspective auto-réparatrice prochaine des robots, partielle dans un premier temps, et l'inquiétude conséquente d'une perte totale de maîtrise humaine sur leur potentiel en réseau. N'oublions pas, dans ce récent tableau apocalyptique peut-être “en hommage” à Jérôme Bosch, la mise en esclavagisme total des insectes pilotés par l'électronique “embarquée”.48

Un chapitre intitulé “Le combat robotisé” se rapproche également de nos inquiétudes en posant cette question éthique : un robot pourra-t-il différencier un combattant actif d'un autre qui se rend ?

 

 

 

LES QUESTIONS PRINCIPALES

La morale

Tony D’Costa, de Pax Christi, Irlande a averti que les armes franchissent un seuil inacceptable qui constitue le plus grand danger pour notre morale commune : « Les armes autonomes n'ont rien de bon à nous offrir puisqu'ils menacent la paix globale et la sécurité internationale » ; elles « sapent le paysage entier de ces valeurs humaines universelles fondamentales qui protègent des civils innocents du mal, en temps de guerre ou d'autres conflits49

Dès 2009, la question de la moralité de ces systèmes d'armes est posée par Hervé Morin, dans le journal Le Monde.

Ce n'était pas en termes strictement philosophiques, comme prétend le faire le Capitaine Emmanuel Goffi, rédacteur division stratégie du CESA,50 : celui-ci replace la question de la morale en termes de responsabilité en faisant allusion à Emmanuel Lévinas, Hannah Harendt et Hans Jonas, et écrit paradoxalement juste avant: « Il est important d’être conscient que tout peut être justifié par la philosophie morale, le pire comme le mieux. La philosophie morale est neutre et ne juge pas en valeur. » avant d'affirmer que « Réfléchir à la moralité des robots de combat dans une logique instrumentaliste ayant vocation à justifier leur emploi ou au contraire à le rejeter ne présente que peu d’intérêt. ».

Hervé Morin situe plutôt l'urgence de cette morale dans la réalité immédiate et bien concrète qui se posera inévitablement ; c'est une situation systématique en temps de guerre mais aussi un cas d'école insoluble, tant pour les humains que pour ceux d'entre eux qui auront à implémenter une “morale” dans les algorithmes :

« Année 2018. Les familles d'un soldat et d'un sous-officier américains reçoivent 100 millions de dollars de dommages et intérêts de la firme Milibots Inc. Les deux militaires, pris comme boucliers humains par des insurgés afghans qui venaient de s'emparer de leur batterie mobile de missiles, ont été "sacrifiés" par le robot autonome JCN 3000 chargé de la protection du convoi. En détruisant la batterie et ses servants, le robot a voulu parer un risque imminent d'utilisation de ces armes, susceptible d'occasionner un plus grand nombre de morts dans le camp allié, a tenté de faire valoir Milibots Inc, lorsque l'affaire a été ébruitée - avant de sortir son chéquier. » 51

Il ne s'agit pas tout à fait de science-fiction, écrit H. Morin :

« Les états-majors commencent à se soucier des enjeux éthiques qui se profilent. En témoigne la publication, fin décembre 2008, d'un rapport intitulé "Robots militaires autonomes : risques, éthique, design", commandé par l'US Navy. »

En page 25, on y découvre des questions d'éthique pure, nées de l'histoire des peuples :

« Les robots autonomes seront-ils capables de suivre les prescriptions des Lois de la guerre et les Règles d'engagement militaire, comme spécifiées dans les Conventions de Genève ?

Les robots sauront-ils différencier les militaires des civils ?

Reconnaîtront-ils un soldat blessé et s'abstenir de faire feu ?52

La question a cependant bien été encadrée par F. Nietzsche :

« C'est l'homme qui a prêté de la valeur aux choses, afin de se conserver, c'est lui qui a créé le sens des choses, un sens humain ! C'est pourquoi il s'appelle “ homme ”, c'est-à-dire celui qui évalue. »53

Et au-delà des variations sur la valeur, propres à chaque pays ou civilisation, il faudra considérer, selon moi, ce “sens humain” qui fait “l'homme” et dont la machine sera toujours dépourvue, même pourvue de capteurs ou de références bibliographiques en tous genres.

 

 

Le droit et la justice

« Comment distinguer le droit de la morale dans les sociétés qui nous intéressent ? écrit Marcel Mauss54.

L'ensemble des idées morales et juridiques correspond au système * de ces attentes collectives.

Le droit est le moyen d'organiser le système des attentes collectives, de faire respecter les individus, leur valeur, leurs groupements, leur hiérarchie.

Les phénomènes juridiques sont les phénomènes moraux organisés. C'est encore cela dans notre droit : responsabilité civile et responsabilité criminelle sont strictement déterminées. »

* système 55 : 1-Construction de l'esprit, ensemble de propositions, de principes et de conclusions, qui forment un corps de doctrine.

                       2-Ensemble structuré d'éléments abstraits, ensemble de concepts présentés sous une forme ordonnée.

Bernard Stiegler précise la notion en parlant d' “organologie générale”, qui étudie les relations entre les organes physiologiques, les organes techniques et les organisations sociales. (cf. http://arsindustrialis.org/search/node/organologie et http://pharmakon.fr/wordpress/academie-dete-de-lecole-de-philosophie-depineuil-le-fleuriel/academie-2013/ )

Or, dans la question qui nous occupe et nous préoccupe, c'est bien de la pérennité des organisations sociales qu'il est question : l'Irlande a fait sa première déclaration sur le sujet à l'Assemblée Générale des Nations Unies en septembre 2013 56:

« Notre point central doit toujours être de garantir le respect du Droit Humanitaire International (DIH) et les Droits Humains», principes qui «doivent aussi s'appliquer aux armes qui seront développées dans le futur, tels les systèmes d'armes totalement autonomes.» L'Irlande a soutenu l'accord de novembre 2013 pour un mandat de discussion, à la Convention pour les Armes Conventionnelles (CCW, sur les armes totalement autonomes, insistant sur la nécessité d'« examiner cette question avant que de tels systèmes ne soient déployés.»

Rappel juridique :

Le DIH fait partie du droit international qui régit les relations entre États. Il est formé par un ensemble de règles internationales d'origine conventionnelle ou coutumière. Les quatre Conventions de Genève de 1949 et leur premier Protocole additionnel de 1977 constituent les principaux traités applicables aux conflits armés internationaux.

Le droit international humanitaire (DIH) est un ensemble de règles qui, pour des raisons humanitaires, cherchent à limiter les effets des conflits armés. Il protège les personnes qui ne participent pas ou plus aux combats et restreint les moyens et méthodes de guerre. Le DIH est également appelé « droit de la guerre » ou « droit des conflits armés ».

Le DIH ne s'applique que dans les situations de conflit armé. Il ne détermine pas si un État a ou non le droit de recourir à la force. (Cette question est régie par une partie importante mais distincte du droit international, contenue dans la Charte des Nations unies).57

Présentant son rapport le 1er avril 2014 lors de la vingt-cinquième session du Conseil des Droits de l’Homme, Christof Heyns, Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, émet des recommandations qui se veulent également anticipatrices:

« § 118 Le fait pour un État de ne pas s’être doté d’un cadre législatif applicable à l’usage de la force par les responsables de l’application des lois conforme aux normes internationales devrait être considéré comme une violation du droit à la vie lui-même.

§ 119 Le Comité des droits de l’homme devrait envisager de rédiger une nouvelle Observation générale sur le droit à la vie.»

Christof Heyns sent bien que la technologie, extrêmement financée, risque d'échapper à tout contrôle et qu'il est urgent de contraindre efficacement tout État à intégrer dans son droit national le concept juridique à définir de façon opposable de “violation du droit à la vie”.

Si le droit à la vie est bien encadré en temps de paix 58, il est en effet nécessaire d'avancer sur le respect de ce droit et la pénalisation de sa violation en temps de guerre :

Revenons à cet effet sur le Statut de Rome 59 de la Cour pénale de justice (1998) :

Outre les autres motifs de responsabilité pénale au regard du présent Statut pour des crimes relevant de la compétence de la Cour :

a) Un chef militaire ou une personne faisant effectivement fonction de chef militaire est pénalement responsable des crimes relevant de la compétence de la Cour commis par des forces placées sous son commandement et son contrôle effectifs, ou sous son autorité et son contrôle effectifs, selon le cas, lorsqu'il ou elle n'a pas exercé le contrôle qui convenait sur ces forces dans les cas où :

i) Ce chef militaire ou cette personne savait, ou, en raison des circonstances, aurait dû savoir, que ces forces commettaient ou allaient commettre ces crimes ; et

ii) Ce chef militaire ou cette personne n'a pas pris toutes les mesures nécessaires et raisonnables qui étaient en son pouvoir pour en empêcher ou en réprimer l'exécution ou pour en référer aux autorités compétentes aux fins d'enquête et de poursuites ;

Mais comment la Cour pourra-t-elle interpréter ce texte si un SALA extermine un groupe de civils comme cela a été le cas avec les drones armés au Yémen 60, mais cette fois-ci sans que le chef militaire puisse attester de cette attaque, décidée sans supervision humaine par un robot “fire and forget” (autonome après lancement) lâché dans un espace aérien, terrestre, maritime ou sous-marin ?

La notion même de preuve est désormais en question : comme on le voit dans la vidéo des fournisseurs du missile Brimstone 61 ou sur celle du nouveau système de canon à laser 62, tant qu'il reste une trace enregistrée – rendue disponible et non couverte par le secret 63 – il est en théorie possible d'attaquer un pays pour crime de guerre voire crime contre l'humanité.64

Mais en l'absence de preuve de la présence d'une force militaire, dans une temporalité et une géographie désormais indéfinissables par les deux belligérants (rappelons-nous des kill-boxévoquées déjà à propos des drones armés), comment attester d'une attaque signée par des humains responsables, absents physiquement et surtout absents du processus de décision létale ?

 

 

Colm O’Gorman, le Directeur exécutif d'Amnesty International Irlande, a mis en garde contre « l'usage d'armes totalement autonomes, qui pourrait en toute illégalité être la cause de morts et de blessés, tant lors de conflits armés, où sont en vigueur simultanément le Droit International Humanitaire et le Droit International des Droits de l'Homme, 65 que lors d'opérations de maintien de l'ordre, pour lesquelles le Droit International des Droits de l'Homme s'applique. » 66

Est-il imaginable de penser que la notion de crime contre l'humanité, par exemple, risque de devenir un concept inapproprié aux nouveaux types d'armes totalement autonomes ?

1. Aux fins du présent Statut, on entend par crime contre l'humanité l'un quelconque des actes ci-après lorsqu'il est commis dans le cadre d'une attaque généralisée ou systématique lancée contre toute population civile et en connaissance de cette attaque :

a) Meurtre ;

b) Extermination ;

c) Réduction en esclavage ;

d) Déportation ou transfert forcé de population ;

e) Emprisonnement ou autre forme de privation grave de liberté physique en violation des dispositions fondamentales du droit international ;

f) Torture ;

g) Viol, esclavage sexuel, prostitution forcée, grossesse forcée, stérilisation forcée ou toute autre forme de violence sexuelle de gravité comparable ;

h) Persécution de tout groupe ou de toute collectivité identifiable pour des motifs d'ordre politique, racial, national, ethnique, culturel, religieux ou sexiste au sens du paragraphe 3, ou en fonction d'autres critères universellement reconnus comme inadmissibles en droit international, en corrélation avec tout acte visé dans le présent paragraphe ou tout crime relevant de la compétence de la Cour ;

i) Disparitions forcées de personnes ;

j) Crime d'apartheid ;

k) Autres actes inhumains de caractère analogue causant intentionnellement de grandes souffrances ou des atteintes graves à l'intégrité physique ou à la santé physique ou mentale. 67

Comment interpréter alors la phrase introductive “attaque généralisée ou systématique lancée contre toute population civile et en connaissance de cette attaque”, dès lors que l'agresseur peut nier, sur la base du renseignement gardé secret, avoir visé “une population civile(qu'il pourra en outre qualifier d'insurgés, de rebelles ou de terroristes 68, éventuellement cachés parmi des “boucliers humains”) et qu'il ne sera concerné en rien par la “connaissance de l'attaque” décidée par les robots autonomes en décision ?

Pourra-t-il en outre se défausser sur les développeurs ou les industriels ou botter en touche, en énonçant que les décisions résultent d'apprentissages logiciels, immaîtrisables par l'humain ?

Alan Greenspan, de la Réserve Fédérale Américaine, n'avait-il pas prétexté devant le Congrès que plus personne ne comprenait l'algorithmique financière fonctionnant à la milliseconde ? 69

Gardons aussi en mémoire la seconde inquiétude d'Amnesty :

« l'usage d'armes totalement autonomes, lors d'opérations de maintien de l'ordre. »

C'est la dérive systématique des armes militaires qui investissent le champ de la sécurité et donc les espaces intérieurs en temps de paix.

 

 

Graal ou entropocène

Les sciences et technologies de l'intelligence artificielle

C’est le futur graal des États les plus puissants, l’espoir d’une nouvelle ère industrielle, d’un rebond de croissance par une “planification algorithmique” du fonctionnement des sociétés. Les recherches ont commencé il y a plus de dix ans 70 avec les tentatives de modélisation du système psychique. La guerre mondiale du cerveau – et sa riposte américaine – datent de 2013.71

Mais elle l’est plus encore pour les multinationales, telles Google, qui a racheté en six mois (2013) huit start-ups spécialisées dans la robotique (humanoïdes, dockers mécaniques, caméras robotisées, etc.) 72 la dernière en date étant Boston Robotics, spécialisée dans la robotique à usage militaire. 73

L’absence de supervision humaine fait l’objet de recherches assidues et l’on pouvait déjà citer en mars 2004 l’ouvrage d’Alain Cardon “Modéliser et concevoir une machine pensante, Approche de la conscience artificielleÉditions Vuibert - Collection Automates Intelligents dirigée par Jean-Paul Baquiast et Christophe Jacquemin.

Ces deux directeurs de publication-ci sont membres du bureau de l'Association Française pour l'Intelligence Artificielle (AFIA) 74 : ils ont créé le site “automates intelligents” en octobre 2000, bien conscientset informés 75 des choix en cours dans la recherche fondamentale et des tendances lourdes constituantes de la société en bouleversements 76 :

D'emblée, il faut noter que si rien n'est fait, ces changements prodigieux ne seront compréhensibles et le cas échéant maîtrisables, que par une très petite minorité d'hommes, issus des couches socialement et intellectuellement favorisées du monde occidental, et plus particulièrement des États-Unis. De plus, tout se fera et se communiquera en anglais.

L'Europe pourra dans certains cas mais non dans tous, essayer de tenir la distance.

Tous les autres hommes, comme l'ensemble des organismes vivants, seront affectés par ces changements, mais ils les subiront passivement, pour le meilleur dans certains cas, en ce qui les concernera, mais sans doute le plus souvent pour le pire.

(…) Dans quels domaines se produiront les ouvertures que nous évoquons ? (…)

Ce seront ceux concernant la vie et l'intelligence artificielle, le génie génétique et le décryptage du fonctionnement du cerveau. (…)

Le modèle de la société résultant de cette évolution, modèle qu'il faudra absolument privilégier, sera celui de la complexité et de la réactivité à la milliseconde. (…) En fait, ce sera une société de processus, s'incarnant et se développant dans et par les activités ou actions de ses divers acteurs, et donc en partie subjective et privative à chacun de ces acteurs.

Pour sa part, Bernard Stiegler forge avec sagacitéle néologisme d'“entropocène” - époque de l'anthropocène 77 entropique - diffusé sur le mode de l'entropo-scène 78 , c'est-à-dire par unetentative généralisée de maîtrisemédiatique et fonctionnelledes rétentions tertiaires (Tous les supports de mémoire, extérieurs à notre psychisme, sur lesquels s'articulent nos rétentions primaires et secondaires).

 

À quelles fins utiliser l’intelligence artificielle

Jean-Paul Baquiast et Christophe Jacquemin nous ramènent, par un raisonnement précis et explicatif vers le sujet d’aujourd’hui 79:

« Quelles sont les forces qui s'impliquent dans la généralisation des systèmes algorithmiques que nous avons décrits ?

On trouve en premier lieu celles visant sous couvert de défense et de sécurité, à une militarisation de plus en plus complète de l'espace social. Le but de cette militarisation est de conserver aux détenteurs de la richesse et de la puissance, par la force, les avantages qu'ils se sont donnés.

Il s'agit d'une toute petite minorité en nombre, qui se trouvera de plus en plus confrontée à des milliards de défavorisés de toutes sortes et de toutes origines. Ces derniers ne demeureront évidemment pas passifs et feront tout ce qu'ils pourront pour échapper, avec les armes dont ils disposeront, à la domination.

Et pour cette petite minorité, il convient donc préventivement de tenir sous contrôle le reste des populations. 80 Il est significatif de voir que pratiquement toutes les recherches en matière de systèmes intelligents pour la défense et la sécurité sont financées par des budgets militaires. Au premier rang de ceux-ci se trouve le budget de la défense américain, lequel est à lui seul dix fois plus important que ceux cumulés des autres États. (…)

Pour que ceci soit accepté, il fallait évidemment que les humains à la source de ces techniques de prédation, formes renouvelées de l'esclavage ancien, puissent ne pas être accusés d'en être les organisateurs. La meilleure solution consistait à laisser agir des méta-systèmes anonymes, bien plus imaginatifs d'ailleurs que les humains eux-mêmes pour capter les ressources des travailleurs de la base. 81

Il se trouve cependant que les processus coactivés que nous avons décrits ne cessent de s'étendre au sein des sociétés, en se coactivant sur des échelles de plus en plus larges. Les humains qui étaient à l'origine de leur mise en place risquent de se trouver désormais dépassés par leurs créatures, lesquelles exerceront le pouvoir à leur place. »

Nous avons un exemple de méta-systèmes anonymes par l’exemple de la R & D de Google 82. Je noterai rapidement la main mise de Google sur l' « économie de l'expression. »83

Ces technologies de traçage étant issues du militaire sont surveillées en secret 84 et servent de base au traçage des cibles militaires. Le document ci-après, émanant du Centre Français de Recherche sur le Renseignement (CF2R) invitait à la définition d'une loi cadre :

« Dans une démocratie, les services de renseignement doivent s’efforcer d’être efficaces, politiquement neutres (non liés aux formations politiques), d’adhérer à une éthique professionnelle, d’opérer dans le cadre de mandats légaux et conformément aux normes et pratiques constitutionnelles, légales et démocratiques de l’État. »

 

Renseignement : légalité ou légitimité ?

On peut se demander toutefois quelle est la légalité de technologies de traçage à grande échelle, qui ont permis aux États-Unis le profilage de cibles et leur élimination : la suite du document en montre cependant l'impossibilité ; notre question précédente concernant le respect du DIH et du DIDH risque malheureusement de rester ainsi en suspens pour longtemps.

Elle demeure également cruellement criante s'agissant de la protection de la vie privée des citoyens, comme l'a relevé la CNIL 85, ce qui laisse planer le spectre qu'évoquait Colm O’Gorman de l'usage d'armes totalement autonomes lors d'opérations de maintien de l'ordre.

 

Si cette loi venait à être inscrite dans la Constitution, énonçaient-ils, elle définirait à l'intérieur de la nation plusieurs notions telles que la « légitimité du renseignement dans le cadre de la défense et de la sécurité nationale, (…) les moyens d’action autorisés pour chacune d’entre elles [les agences appartenant à la communauté du renseignement] (principes de base de comportement des services, éthique, etc. (…) » 86

« En revanche, le renseignement extérieur ne peut se voir imposer les mêmes règles. Il est, par nature, l’activité dans laquelle les fonctionnaires transgressent régulièrement la légalité et l’éthique d’autrui, à la demande des autorités de l’Etat et au bénéfice de l’intérêt national, c’est-­à­‐dire dans un but légitime, ou considéré comme tel. C’est là la nature même de l’espionnage, qui est l’une des fonctions de l’Etat afin d’assurer sa sécurité.

En complément, une autre notion a toute son importance : celle de la légitimité. Celle­‐ci ne se fonde pas uniquement sur le droit, mais fait appel à d’autres critères comme l’équité, le bien‐fondé, l’intérêt supérieur, la raison d’Etat, etc.

La légitimité a donc un sens plus large que la légalité. Ainsi, dans un nombre de cas limité, certaines actions peuvent être non éthiques, illégales mais apparaître légitimes.»

Notre société apparaît ainsi dans sa soumission à un régime de vérité qui impacte irrémédiablement l'avenir, tant du côté des dirigeants que de celui des citoyens soumis à la gouvernementalité algorithmique, comme l'ont bien décrit Filippo Domenicali et Antoinette Rouvroy. 87

Si les citoyens ne se mobilisent pas pour comprendre l'urgence de la situation actuelle, reprendre la main et défendre le droit primordial à la vie, ils seront assujettis en donnant forme «à leurs propres croyances sur la base d'un discours qu'[ils]considèrent vrai, façonnant leur propre subjectivité sur la base d'un principe de réalité validé socialement. La vérité oblige. »

«  La vérité n'est plus un régime d'épreuve, plus personne ne l'éprouve ; elle n'est plus mise à l'épreuve par un régime de comparution. » 88

 

 

RÉUNION « AU SOMMET » MAIS MOBILISATION CITOYENNE À FAIRE CROÎTRE »

Reprenons cette inquiétude des “humains en passe d’être dépassés par leurs créatures” en cours de concrétisation en lisant quelques extraits du rapport final de la “Réunion informelle d’experts sur les systèmes d’armes létaux autonomes”  89:

Les sociétés, toutes les sociétés, sont concernées à de multiples niveaux. Et si le temps « est venu » d’en débattre, pour ces dirigeants mondiaux :

« 14. Given the potential for rapid technological developments in autonomous weapons to radically transform the nature of warfare, which was raised by a number of delegations, the timely convening of the meeting and the multidisciplinary approach allowed by the CCW was welcomed. »

il est de la plus extrême urgence que les peuples s'en saisissent, afin de faire valoir leur pensée, leurs cultures, leur respect de la vie, cette consistance philosophique qui les structure et les lie tous dans un avenir projeté de développement de la vie partagée.


Fuite en avant et Peur de l’apocalypse

Mais les peuples concernés risquent bien de se faire voler leur parole et leurs réponses « légales » ultérieures par leurs dirigeants bien intentionnés :

si les ONG sont conviées au débat, c’est bien le double rôle des États, signifié par l’expression internationale “êtrejuge et partie” – “essere giudice e parte” “you can’t both judge and be judged”, qui est à peser ici.

Après les déclarations positives citées plus haut, comment parviendront-ils à faire le grand écart entre la déontologie démocratique dont ils sont garants auprès de leurs électeurs et leurs intérêts industriels, de sécurité, de géostratégie, lors de cette guerre économique qu’ils se mènent les uns les autres ? Quels règlements contraignants oseront-ils inventer pour qu’un tel accord ne reste pas un rideau de fumée aisément transgressible ?

« Durant la réunion, de nombreux gouvernements ont exprimé leur soutien à l’égard de la nécessité de garantir un contrôle humain significatif dans le cadre de toute décision liée à la détermination de cibles et aux attaques en temps de guerre, a indiqué Human Rights Watch. »

D’ailleurs, le paragraphe 18 du rapport final pose clairement le dilemme ingérable par nombre d’entre eux de leur développement :

« 18. A number of delegations stressed the necessity of recognizing the significance of the peaceful uses of autonomous technologies in the civilian field, and the importance to not undermine the current technological development efforts in this area. »

Nous ne sommes donc pas les seuls inquiets de cette nouvelle épée de Damoclès que l’industrie réclame indirectement.

 

Le Vatican

Le Saint-Siège, représenté par Mgr Tomasi, a rappelé sa mise en garde contre les drones de combat dans ce nouveau contexte d’autonomie technologique possible :

« Les machines « ne peuvent pas remplacer l’homme dans les décisions de vie et de mort » et a exprimé les « profondes préoccupations » du Saint-Siège sur « l’utilisation de drones qui peuvent aller au-delà des capacités de surveillance ou de renseignement en visant effectivement des cibles humaines » durant la guerre.

« Alors que dans de nombreux domaines, la technologie autonome peut s’avérer bénéfique pour l’humanité, la question de l’autonomie des armes est tout à fait distincte » : elle met une machine « en position de décider de la vie et de la mort », a-t-il souligné.

« L’intervention humaine significative est absolument essentielle dans les décisions affectant la vie et la mort d’êtres humains », a-t-il affirmé : en effet, « les systèmes d’armes autonomes ne pourront jamais remplacer la capacité humaine de raisonnement moral ».

 

Il semble que le Vatican ait même cherché à anticiper les modifications possibles du droit international en affichant ce cadrage législatif, au-delà de ce que les “roboéthiciens” tels Arkin souhaitent faire accepter :

« Les machines, même « bien programmées avec des algorithmes sophistiqués pour prendre des décisions sur le champ de bataille dans le respect du Droit international humanitaire (D.I.H.), ne peuvent pas remplacer l’homme dans les décisions de vie et de mort ».

Cette technologie « rend la guerre trop facile » en éliminant sa dépendance aux soldats.

Elle crée aussi « un vide de responsabilité face aux violations du droit international » a mis en garde Mgr Tomasi.

La préoccupation de l’Église chrétienne est grave - cri de détresse presque allégorique, peur apocalyptique :

Le spectre de la prolifération des drones

Le Saint-Siège a réfuté l'une des justifications de ces armes, à savoir « l'idée que si nous ne développons pas cette technologie, quelqu'un d'autre le fera » :

« Une fois que ces systèmes seront développés par les grands États, il ne sera pas très difficile de les copier », a fait observer l'archevêque. « Il est impératif d'agir avant que la technologie des systèmes d'armes autonomes ne progresse et ne prolifère » :

« Les êtres humains ne doivent pas être mis hors de la boucle sur les décisions concernant la vie et la mort d'autres êtres humains. »90


Human Rights Watch

HRW s’est engagé depuis avril 2013 – les propos sont vitaux ici aussi - dans un combat contre l’«ébranlement [final] des fondements » 91

« évalue en détail les risques présentés par ces armes au cours des opérations d'application de la loi, en élargissant le débat au-delà du champ de bataille.

Human Rights Watch a constaté que les armes entièrement autonomes menaceraient des droits et des principes au regard du droit international aussi fondamentaux que le droit à la vie, le droit à un recours et le principe de la dignité. »

 

L'ICRAC

De son côté l’ICRAC a une analyse aussi effarée :

« ICRAC stresses that autonomous weapon systems pose pressing dangers to global peace and security. If not prohibited, they will likely proliferate rapidly, trigger arms races, lower the threshold to war, interact in ways no one is prepared for, and undermine the right to life. »

« des systèmes d'armes autonomes présentent des dangers urgents pour la paix et la sécurité mondiales. Sans prohibition, ils proliféreront probablement très vite, déclencheront des courses aux armements, abaisseront le seuil de potentialité de la guerre, interagiront d’une façon à laquelle personne n'est préparé et porteront atteinte au droit à la vie. »

« Sistemi d'arma autonomi presentano dei pericoli urgenti per la pace e la sicurezza mondiale. Senza divieto, probabilmente proliferanno molto rapidamente, scateneranno delle corse agli armamenti, abbasseranno la soglia del potenziale bellico, interagiranno in un modo che nessuno è preparato e recheranno pregiudizio al diritto alla vita. »

 

Échapperons-nous, Terriens de tout bord, à l'émergence de ce type d'armes, alors que la science évolue vers des concepts toujours plus généraux et systémiques ? 92

La guerre facilitée n'amènera-t-elle pas les États les plus puissants à étendre leur hégémonie, hors de toute opposition militaire similaire envisageable, une fois l' « intelligence artificielle » davantage modélisée, voire déjà sur les champs de bataille actuels, à des fins d'expérimentation et de développement ?

Ce sont les États qui cherchent à construire une géostratégie. Le versant militaire de la recherche technologique est au cœur de leurs préoccupations.

Mais le risque prochain n'existe-t-il pas qu'avec les diminutions de crédits des États, l'influence récupérée de l'opinion publique et la prépondérance des industriels, le recours à des agences militaires indépendantes ne se développe davantage (comme avec Frontex 93 ou Eurogendfor 94) dans les domaines traditionnellement régaliens de l'armée comme de la sécurité ? L'usage de ces types de systèmes d'armes autonomes permettrait alors à ces agences de réaliser des économies substantielles en remplissant leur cahier des charges 95.

 

 

CONCLUSION : RÉSOLUMENT POUR LA VIE

À l’heure actuelle, en notre instant de gravité ultime où, face à ce déchaînement potentiel de puissances destructrices en tous genres, sur le point de devenir autonomes face à l’Humanité entière, le Saint Siège crie « Au Feu ! » :

« Les machines ne peuvent pas remplacer l’homme dans les décisions de vie et de mort » tance Mgr Tomasi. « Cette technologie « rend la guerre trop facile » en éliminant sa dépendance aux soldats. »

Il est temps, donc, que cette demande rare d’éthique soit appréhendée par l'ensemble des sociétés dans un débat ouvert, que la philosophie devienne enfin et d'urgence le bien commun à nourrir par tous.

À l’instar du Pape, le Dalaï-Lama, dans un discours tout simplement humain, invite à faire confiance aux populations :

« Chaque jour, les médias rapportent des actions terroristes, des crimes et des agressions. Jamais je n’ai été dans un pays où de tragiques histoires de sang et de mort ne fassent la une des journaux ou des émissions de radiotélévision. Pareils incidents sont quasiment devenus une manie des journalistes et de leur public.

Pourtant, l’écrasante majorité de la race humaine ne se comporte pas de façon destructrice ; en fait, très peu parmi les cinq milliards d’individus sur cette planète commettent des actes de violence. La plupart d’entre nous préfèrent être aussi tranquilles que possible. » écrivait-il en 1999. »

 

Même étant devenus aujourd’hui près de sept milliards, la statistique ne s’est guère modifiée…

Qu'attendons-nous donc, coordonnant notre immense majorité, pour empêcher fermement ces toxicités de la technologie et des organes systémiques et n'en potentialiser que les aspects propices au bien commun, pérenne, par la défense de la vie ?

 

************

 

1 Néologisme de Bernard Stiegler

2 cf. http://www.ladeleuziana.org/drones-et-non-droit-a-la-vie-par-alain-bonneau/

3 page 315

4http://fr.wikipedia.org/wiki/Sisyphe Sisyphe est surtout connu pour avoir déjoué Thanatos. S'apercevant que plus personne ne mourait, Zeus envoya Hadès délivrer Thanatos. Mais Sisyphe …

5http://lis.epfl.ch/ Il a refusé de développer un robot militaire pour une agence gouvernementale européenne : « Un des risques c’est de croire que les guerres deviennent plus faciles à faire dans le sens où elles seront “plus propres” car en fait il n’y aura pas de soldats engagés dans cette guerre. Peut-être que c’est le cas, dans le sens que l’armée qui a les robots aura moins de morts, mais il y aura quand même des morts de l’autre côté. Et en plus, cela pourra inciter à faire plus de guerres, parce que “faire la guerre c’est plus facile”. En plus, il y a ce détachement émotionnel, peut-être. »

6http://fr.wikipedia.org/wiki/Alexandre_Grothendieck

7 http://web.math.princeton.edu/~naor/ puis https://web.math.princeton.edu/~naor/homepage%20files/GroKri.pdf

8 Appelé “théorème fondamental de la théorie métrique des produits tensoriels".

9Lexemple des chauffeurs de taxi en Corée et au Japon présenté sur cette vidéo est explicite : 1 mn 40 http://www.dailymotion.com/video/xffbwg_viva-la-robolution-par-bruno-bonnell_tech&start=2838

La Corée veut dynamiser la consommation et détruit toute perspective de savoir scolaire : 1 mn 30

http://www.dailymotion.com/video/xffbwg_viva-la-robolution-par-bruno-bonnell_tech&start=2227

Extraits de lIntervention du 29/09/2010, à la Cité du Design de St Etienne, de Bruno BONNELL, dirigeant de Robopolis (entreprise de Villeurbanne), et président du Syndicat de la Robotique de Services, pour présenter sa vision de l'avenir de la robotique et ses liens évidents avec le logiciel.

10Des chercheurs de l'université de Bristol et de l'école de journalisme de l'université de Cardiff ont utilisé des algorithmes basés sur l'intelligence artificielle afin d'analyser 2,5 millions d'articles tirés de 498 médias en ligne en anglais pendant 10 mois. () Comme attendu, les mesures de lisibilité montrent que les tabloïds en ligne sont plus lisibles que les journaux sérieux, et utilisent un langage plus sentimental et affecté.

http://owni.fr/revue-du-web/du-big-data-et-de-linfo-sont-dans-un-bateau/

Dommage que les articles manquent depuis décembre 2012.

11Société Amesys : http://owni.fr/2011/06/10/la-libye-sur-ecoute-francaise/

Société Qosmos : http://reflets.info/deep-packet-inspection-qosmos-techtoctv/

12 http://www.unog.ch/80256EE600585943/%28httpPages%29/3CFCEEEF52D553D5C1257B0300473B77?OpenDocument Meeting of Experts on Lethal Autonomous Weapons Systems (up to five days during the week of 13 to 17 April 2015)

13http://www.ladeleuziana.org/drones-et-non-droit-a-la-vie-par-alain-bonneau/

14http://www.unog.ch/80256EE600585943/%28httpPages%29/3CFCEEEF52D553D5C1257B0300473B77?OpenDocument

15http://www.unog.ch/80256EDD006B8954/(httpAssets)/FE367AE0FEC9C034C1257CD7005FB685/$file/DG+UNOG+MX+LAWS.pdf

16http://www.delegfrance-cd-geneve.org/Du-13-au-16-mai-2014-Reunion

17 « La France est à l’avant-garde d’une politique résolue de maîtrise des armements et de lutte contre la prolifération, dans le cadre du droit international. C’est sur ce terrain-là qu’elle entend concrètement progresser pour éviter que de nouvelles courses aux armements ne s’enclenchent. (…) « Ces projets sont doublement nécessaires parce que la dissuasion n’a de sens que si elle peut en permanence surmonter les stratégies d’interdiction que nos adversaires pourraient vouloir mettre en œuvre » et aussi parce que, sur le plan industriel « la dissuasion exerce un effet d’entraînement sur l’ensemble de nos capacités industrielles et technologiques » a ajouté le ministre de la défense français le 20 novembre 2014 dans un discours à visée générale. http://www.opex360.com/2014/11/21/lasn4g-sera-le-futur-missile-des-forces-aeriennes-strategiques/

18Communiqué cité en 6 : http://www.delegfrance-cd-geneve.org/Du-13-au-16-mai-2014-Reunion

19Europe : Human Brain Project « Leurs investissements leur donnent des compétences exclusives que l'on retrouve déjà non seulement dans le domaine militaire mais aussi dans le domaine civil, avec l'objet de faire face à certains troubles mentaux, développer divers types de robots autonomes susceptibles de compléter ou remplacer les humains, mieux comprendre (pour mieux les piloter) les réactions des individus ou des groupes face aux campagnes publicitaires et politiques... »

http://www.automatesintelligents.com/edito/2013/fev/humanbrain.html& http://automatesintelligent.blog.lemonde.fr/2013/02/

voir aussi le projet américain 2007-2032 :

http://www.globalsecurity.org/intell/library/reports/2007/dod-unmanned-systems-roadmap_2007-2032.pdf « The US Department of Defense (DoD) has released a report detailing the future of robotic military equipment and how the US military should proceed. The 188 page report (pdf) covers the next 25 years of unmanned military systems in the air, and sea, and on land. »

20http://www.automatesintelligents.com/actu/140531_actu.html#actu1 A propos d’Alstom

21ACRIMED : Edward Snowden privé du droit d’asile, Mediapart et Le Point censurés : vive le droit d’informer !

http://www.millebabords.org/spip.php?article24039

22http://www.amnesty.fr/Mobilisez-vous/Rejoignez-nous/Rejoignez-un-groupe-de-militants/Portraits-de-militants

23 http://www.unog.ch/80256EDD006B8954/%28httpAssets%29/350D9ABED1AFA515C1257CF30047A8C7/$file/Report_AdvancedVersion_10June.pdf et http://www.stopkillerrobots.org/2014/11/missile-systems-and-human-control/

24 http://www.defense.gov/news/newsarticle.aspx?id=48453

25 http://cmapspublic.ihmc.us/rid=1GJLFZ5ZM-1RTC1XY-NKS/1GJKWNRF5IZK34SJI8F3ItextIplain consulter le diaporama de “Combat Autonomous Mobility System” à CAMS CONOPS 20 JUN 08 ici : http://cmapspublic.ihmc.us/rid=1GJLFWKBW-1VW9WHG-NFJ/CAMS%20CONOPS%2020%20Jun%2008.ppt

26 http://www.hrw.org/fr/news/2014/05/16/onu-reconnaissance-des-dangers-poses-par-les-robots-tueurs cf. aussi le chapitre « Human Rights Watch » page 20

27 http://www.paxforpeace.nl/stay-informed/news/religious-leaders-call-for-a-ban-on-killer-robots 12 novembre 2014

28 http://www.unog.ch/80256EDD006B8954/%28httpAssets%29/356A31E29C1BA6E4C1257CD70060FB41/$file/Chatila_LAWS_technical_2014.pdf

29 http://www.admiroutes.asso.fr/larevue/2012/127/Livrecardon3.pdf

30http://www.automatesintelligents.com/biblionet/2012/sept/phi.html

31 Professeur d'Intelligence Artificielle et de Robotique à l'Université de Sheffield, Président de l'International Committee for Robot Arms Control, fondateur de la “Global Campaign to Stop Killer Robots”

32 http://unog.ch/80256EDD006B8954/%28httpAssets%29/C99C06D328117A11C1257CD7005D8753/$file/ICRC_MX_LAWS_2014.pdf

33 http://www.onr.navy.mil/en/Media-Center/Press-Releases/2014/autonomous-swarm-boat-unmanned-caracas.aspx

34https://www.youtube.com/watch?v=ITTvgkO2Xw4

35 http://www.irobot.com/For-Defense-and-Security/Robots/uPoint.aspx#Military

36 http://www.insidegnss.com/node/4289 The open-architecture ground control system, along with the launch-and-recovery system ScanEagle 2 shares with Integrator, Insitu’s other unmanned platform, enables commonality with other unmanned systems as well.

37 http://www.onr.navy.mil/Media-Center/Press-Releases/2014/LaWS-shipboard-laser-uss-ponce.aspx vidéo ci-après : https://www.youtube.com/watch?v=D0DbgNju2wE&feature=youtu.be

38 http://www.swissinfo.ch/fre/les-robots-tueurs-bient%C3%B4t-en-action-pr%C3%A8s-de-chez-vous-/38723030

39http://www.nytimes.com/2014/11/12/science/weapons-directed-by-robots-not-humans-raise-ethical-questions.html?_r=3

40 LRASM is anticipated to pioneer autonomous targeting capabilities for anti-ship missiles.

41 http://foxtrotalpha.jalopnik.com/the-navys-smart-new-stealth-anti-ship-missile-can-plan-1666079462

42 http://fr.wikipedia.org/wiki/Naval_Strike_Missile

43 http://www.aviationsmilitaires.net/v2/base/view/Model/559.html

44 http://fr.wikipedia.org/wiki/Tire_et_oublie

45 http://brimstonemissile.com/brimstone/

46 http://www.stopkillerrobots.org/2014/11/missile-systems-and-human-control/

47 « Géostratégie et armement au XXI° siècle » (dépôt légal : La Documentation Française, avril 2014, par l’Association des auditeurs et cadres des hautes études de l’armement) dont la publication est annoncée au Journal Officiel de la République Française du 28 mai 2014 :http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000028990860&dateTexte=&categorieLien=id

48 Des universités américaines sont déjà mobilisées : http://en.wikipedia.org/wiki/Cyborg § Animal cyborgs

49 http://www.stopkillerrobots.org/2014/04/irishcampaign/

50 http://www.academia.edu/5443933/Robots_de_combat_et_morale_anticiper_la_responsabilit%C3%A9

51 http://www.internationalnews.fr/article-29320571.html

52 http://ethics.calpoly.edu/ONR_report.pdf

53 F. Nietzsche, Ainsi parlait Zarathoustra, Paris, Gallimard, 1966. Trad. M. Betz, p. 73

54 Marcel Mauss, Manuel d'ethnographie, Paris, Payot 1967, p. 137

55 http://www.cnrtl.fr/definition/syst%C3%A8me

56 http://www.stopkillerrobots.org/2014/04/irishcampaign/

57 http://fr.wikipedia.org/wiki/Droit_international_humanitaire

58 http://www.ohchr.org/FR/Issues/Pages/WhatareHumanRights.aspx ou, dans le cas des pays africains : http://www.claiminghumanrights.org/right_to_life_definition.html?L=1

59 http://www.hrea.org/fr/erc/bibliotheque/statut-du-rome.pdf page 23 “Article 28

RESPONSABILITÉ DES CHEFS MILITAIRES ET AUTRES SUPÉRIEURS HIÉRARCHIQUES

60 http://www.hrw.org/fr/news/2014/02/20/etats-unis-une-frappe-de-drone-au-yemen-peut-etre-enfreint-la-politique-mise-en-plac « Une attaque meurtrière menée par les États-Unis au moyen d’un drone, qui a frappé le cortège d'un mariage au Yémen en décembre 2013, soulève de graves doutes quant au respect par les forces armées américaines des lignes directrices annoncées par le Président Barack Obama en matière d’assassinats ciblés» a déclaré Human Rights Watch

61 https://www.youtube.com/watch?feature=player_embedded&v=ySwP2XmDT5k

62 https://www.youtube.com/watch?feature=player_detailpage&v=D0DbgNju2wE#t=33

63 http://lignesdedefense.blogs.ouest-france.fr/archive/2014/09/19/les-rafale-ont-detruit-un-centre-logistique-de-l-etat-islami-12428.html

64 Les crimes de guerre constituent des infractions graves aux Conventions de Genève du 12 août 1949, à savoir les actes qui visent des personnes ou des biens protégés par les dispositions des Conventions de Genève. Les crimes contre l'humanité sont commis dans le cadre d'une attaque généralisée ou systématique lancée contre toute population civile et en connaissance de cette attaque. http://www.hrea.org/fr/education/guides/droit-a-la-vie.html

65 http://fr.wikipedia.org/wiki/Droit_international_des_droits_de_l%27homme

66 http://www.stopkillerrobots.org/2014/04/irishcampaign/

67 http://www.hrea.org/fr/erc/bibliotheque/statut-du-rome.pdf page 9/79

68 cf. à ce propos la note 1 de cette fiche du Centre Français de Recherche sur le Renseignement http://www.cf2r.org/fr/notes-actualite/terrorisme-vous-avez-aime-2014-vous-adorerez-2015.php

69 http://www.pbs.org/newshour/bb/business-july-dec08-crisishearing_10-23/ Transcription of his statement to the Congress 23/10/2008 : "This is too complicated. Nobody can really understand if it is a bubble." & "Well, that was too complicated, too. Nobody could really understand that, either."

70http://www.automatesintelligents.com/edito/2011/fev/edito.html

71http://www.automatesintelligents.com/edito/2013/fev/guerre_mondiale_cerveau.html

http://www.nytimes.com/2013/02/18/science/project-seeks-to-build-map-of-human-brain.html?_r=1&

72http://obsession.nouvelobs.com/high-tech/20131216.OBS9715/pourquoi-google-s-emballe-pour-les-robots.html

73http://www.commentcamarche.net/news/5863682-google-rachat-de-boston-dynamics-la-8e-entreprise-de-robotique-en-6-mois

74http://www.afia.polytechnique.fr

75http://www.automatesintelligents.com/equipe.html Biographies des rédacteurs en chef

76http://www.automatesintelligents.com/edito/2000/oct/edito.html

77 https://www.youtube.com/watch?feature=player_detailpage&v=4-l6FQN4P1c#t=144 Conférence de Bruno Latour (2:24)

78 http://ldt.iri.centrepompidou.fr/ldtplatform/ldt/front/player/363e9e56-fc46-11e3-bdcd-00145ea4a2be/#t=1225 Séminaire de Bernard Stiegler (20:24)

79 http://www.automatesintelligents.com/echanges/2011/jan/cardon.html

80 http://www.opex360.com/2009/04/24/le-sniper-est-un-robot/

81 Infrastructure : http://fr.wikipedia.org/wiki/Plateforme_Google traçage (l'un des -): https://www.google.fr/intl/fr/analytics/ ou http://www.atinternet.com/ visualisation des traçages par un logiciel de la CNIL : http://www.cnil.fr/vos-droits/vos-traces/les-cookies/telechargez-cookieviz/ lire attentivement la fiche wikipedia à propos de la société AMESYS, spécialisée dans le traçage en temps réel des communications d'un pays : http://fr.wikipedia.org/wiki/Amesys , d'autres sociétés poursuivant les mêmes buts : http://www.lemonde.fr/technologies/article/2013/03/12/rsf-liste-les-pays-et-entreprises-ennemis-d-internet-en-2012_1846625_651865.html et une solution anti-censure de RSF : http://www.lemonde.fr/technologies/article/2012/11/27/rsf-lance-un-site-de-protection-contre-la-censure_1796698_651865.html

82http://research.google.com/pubs/ArtificialIntelligenceandMachineLearning.htmlet nid de formules mathématiques qui sous-tendent le fonctionnement du moteur de recherchehttp://www.outil-referencement.com/blog/index.php/386-algorithme-google

83 « La question de la langue à l'époque de Google » chapitre 9 de Digital Studies , éd. IRI / fYp, février 2014 page 151

84 http://www.latribune.fr/technos-medias/20120512trib000698205/les-accords-secrets-entre-google-et-l-agence-de-renseignement-nsa-resterontsecrets-.html

85 http://www.cnil.fr/linstitution/actualite/article/article/loi-de-programmation-militaire-la-cnil-deplore-de-ne-pas-avoir-ete-saisie-des-dispositions-rela/ la CNIL n'a pas été saisie de l'article 13 du projet, qui permet aux services de renseignement des ministères de la défense, de l'intérieur, de l'économie et du ministère en charge du budget d'accéder aux données conservées par les opérateurs de communications électroniques, les fournisseurs d'accès à Internet et les hébergeurs...

86 http://www.cf2r.org/images/stories/notesreflexion/note-reflexion-16.pdf page 3/11

87http://www.ladeleuziana.org/come-si-esercita-il-potere/et Antoinette Rouvroyhttp://enmi-conf.org/wp/enmi14/session-2-renkan-antoinette-rouvroy/

88 http://works.bepress.com/antoinette_rouvroy/43/ C’est dans leur puissance (y compris la puissance de désobéir), que le gouvernement algorithmique atteint les individus, tout en évitant de produire aucune occasion de subjectivation: ce pouvoir éprouve les individus en réduisant leurs dimensions inactuelles (la dimension de la spontanéité, de la potentialité), sans mobiliser pour autant leurs capacités d'entendement et de volonté, à la différence de la loi notamment. Le gouvernement algorithmique se distingue notamment du gouvernement néolibéral en ce que la docilité qu’il produit n’est pas l’effet d’injonctions de productivité et/ou de jouissance mais d’affectation - sur le mode du réflex plutôt que de la réflexion- des comportements individuels et collectifs.

89http://www.delegfrance-cd-geneve.org/IMG/doc/Report_Draft-format4.doc

90 15 mai 2014 : http://www.zenit.org/fr/articles/armes-le-saint-siege-met-en-garde-contre-l-usage-des-drones

ZENITH : Le monde vu de Rome”

91 http://www.hrw.org/sites/default/files/reports/arms0514_ForUpload_0.pdf

92 http://www.opex360.com/2014/07/16/mbda-presente-stratus-systeme-destine-optimiser-les-moyens-de-combat-disponibles-sur-le-champ-de-bataille/

93 « Frontex has an independent and separate recruitment process from other EU institutions or other EU agencieshttp://frontex.europa.eu/about-frontex/job-opportunities/job-opportunities

94 http://www.european-security.com/n_index.php?id=5948

95 http://europa.eu/legislation_summaries/justice_freedom_security/fight_against_terrorism/l33216_en.htm § “Tasks of the agency” et http://frontex.europa.eu/about-frontex/procurement/general-information

 

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.