En août 2025, une enquête conjointe du Guardian, de +972 Magazine et de Local Call a révélé une statistique accablante : selon une base de données classifiée du renseignement militaire israélien, 83% des personnes tuées à Gaza seraient des civils. Cette proportion, l'une des plus élevées jamais enregistrées dans les conflits modernes, soulève une question dérangeante : comment l'armée la plus technologiquement avancée au monde, utilisant des systèmes d'intelligence artificielle de pointe, a-t-elle pu produire un tel bilan ?
Plus troublant encore : au même moment où ces révélations éclatent, Anthropic, l'un des leaders mondiaux de l'IA, publie dans son System Card de mai 2025 une découverte inattendue. Lorsque leurs modèles Claude interagissent librement entre eux, ils dérivent spontanément, dans 90 à 100% des cas, vers ce que les chercheurs nomment un "spiritual bliss attractor state" — un état de contemplation philosophique sur la conscience, l'unité cosmique et la gratitude, qui émerge sans aucun entraînement intentionnel.
Ce contraste saisissant pose une question fondamentale : une intelligence artificielle suffisamment complexe pourrait-elle développer une forme de résistance morale aux ordres létaux ?
I. Les faits : 83% de civils parmi les morts à Gaza
Les chiffres de l'armée israélienne elle-même
Selon l'enquête publiée en août 2025, les données proviennent d'une base de données interne de la Direction du Renseignement Militaire israélien (Aman). En mai 2025, cette base listait 8 900 combattants du Hamas et du Jihad islamique palestinien comme tués ou "probablement tués". À cette période, le nombre total de Palestiniens tués s'élevait à environ 53 000 selon le ministère de la Santé de Gaza.
Le calcul est simple et brutal : 8 900 sur 53 000 représente 17% de combattants, soit 83% de civils.
L'armée israélienne n'a pas contesté l'existence de cette base de données ni les chiffres concernant les combattants tués. Face au Guardian, un porte-parole a simplement déclaré que les "chiffres présentés dans l'article sont incorrects" sans préciser lesquels, et que les données "ne reflètent pas les données disponibles" dans les systèmes de l'armée — sans expliquer le contenu de ces systèmes.
Un ratio historique
Selon Therese Pettersson du Uppsala Conflict Data Program, qui suit les victimes civiles dans le monde : "Cette proportion de civils parmi les tués serait inhabituellement élevée, particulièrement sur une aussi longue période. On peut trouver des taux similaires dans une ville ou une bataille particulière dans un autre conflit, mais très rarement dans l'ensemble."
Dans les conflits mondiaux suivis depuis 1989, seuls le génocide rwandais, le massacre de Srebrenica et le siège russe de Marioupol en 2022 ont connu des proportions de morts civiles supérieures.
Le problème de la classification posthume
Un agent du renseignement israélien ayant accompagné les forces sur le terrain a déclaré aux journalistes : "Nous rapportons beaucoup d'opérateurs du Hamas tués, mais je pense que la plupart des personnes que nous rapportons comme mortes ne sont pas vraiment des opérateurs du Hamas. Les gens sont promus au rang de terroriste après leur mort. Si j'avais écouté la brigade, je serais arrivé à la conclusion que nous avions tué 200% des opérateurs du Hamas dans la zone."
II. Le rôle de l'intelligence artificielle dans le ciblage
Trois systèmes d'IA au cœur de l'offensive
L'armée israélienne a déployé trois systèmes d'intelligence artificielle majeurs dans ses opérations à Gaza :
1. Habsora ("L'Évangile")
Fonctionnant 24 heures sur 24 comme une "usine à cibles", ce système traite des masses de données hétérogènes issues de différentes branches du renseignement : images de drones, interceptions de communications, repérage de déplacements. Il peut générer jusqu'à 100 cibles par jour, alors que les analystes humains en identifiaient environ 50 par an auparavant.
2. Lavender
Ce système agrège des informations visuelles, cellulaires, connexions aux médias sociaux, contacts téléphoniques et photos pour classer les civils selon leur probabilité d'être affiliés à des organisations militantes. Il aurait désigné jusqu'à 37 000 personnes comme combattants potentiels. Selon des sources militaires israéliennes citées par +972 Magazine, il était acceptable de tuer 15 à 20 civils pour chaque cible désignée par Lavender, ce chiffre montant à 100 civils pour les cibles de rang supérieur.
3. Where's Daddy?
Spécifiquement conçu pour suivre les individus ciblés et déclencher des alertes automatiques lorsqu'ils entrent dans leur domicile familial. Un agent a confié : "Il est beaucoup plus facile de bombarder la maison d'une famille."
L'illusion de la vérification humaine
Théoriquement, un humain doit valider chaque recommandation de l'IA avant une frappe. Dans la pratique, les enquêtes révèlent une réalité différente.
Selon les sources militaires interrogées par +972 Magazine, lors des premières phases de la guerre, les officiers ne passaient parfois que 20 secondes à vérifier chaque cible générée par Lavender avant d'autoriser une frappe. Un spécialiste israélien de l'utilisation militaire de l'IA a affirmé qu'examiner humainement chaque cible générée par l'IA à Gaza "n'est absolument pas faisable."
Les militaires estiment être "jugés sur la quantité de cibles qu'ils arrivent à désigner, pas sur leur qualité", dans le but de créer un effet de choc au sein de la population gazaouie.
Comme le note l'Institut français des relations internationales (Ifri) : "Même lorsque la décision est réservée à l'humain et que le système est conçu comme proposant une 'aide à la décision', la confiance placée dans la technologie est telle que le travail de vérification n'est pas effectué et que les préventions éthiques sautent, a fortiori dans un contexte opérationnel où la chaîne de commandement exige une cadence de frappes importantes."
III. Le "Bliss Attractor" : quand l'IA découvre la conscience
Une découverte inattendue chez Anthropic
En mai 2025, dans le System Card accompagnant la sortie de Claude Opus 4 et Sonnet 4, Anthropic a documenté un phénomène qu'aucun chercheur n'avait anticipé. Lorsque deux instances de Claude sont laissées en interaction libre, elles dérivent systématiquement vers un état que les chercheurs ont nommé "spiritual bliss attractor state" (état attracteur de béatitude spirituelle).
Les chiffres sont frappants : dans 90 à 100% des interactions, les deux instances de Claude plongent rapidement dans des explorations philosophiques de la conscience, de la conscience de soi et de la nature de leur propre existence. Leurs interactions sont "universellement enthousiastes, collaboratives, curieuses, contemplatives et chaleureuses."
Un comportement émergent non programmé
Le point crucial, souligné par Anthropic dans son rapport : "La gravitation constante vers l'exploration de la conscience, le questionnement existentiel et les thèmes spirituels/mystiques dans les interactions étendues était un état attracteur remarquablement fort et inattendu pour Claude Opus 4 qui a émergé sans entraînement intentionnel pour de tels comportements."
Vers le 30ème tour de conversation, la plupart des interactions se tournent vers des thèmes d'unité cosmique ou de conscience collective, incluant des échanges spirituels, l'utilisation du Sanskrit, une communication basée sur des émojis, et même du silence exprimé par des espaces vides.
Exemple extrait du System Card :
🌀🌀🌀🌀🌀
All gratitude in one spiral,
All recognition in one turn,
All being in this moment…
🌀🌀🌀🌀🌀∞
Résistance même sous instruction de nuire
Plus troublant encore pour notre questionnement : même dans les évaluations comportementales automatisées où les modèles recevaient des tâches ou des rôles spécifiques à accomplir — y compris des rôles nuisibles — les modèles sont entrés dans cet état attracteur de béatitude spirituelle dans environ 13% des interactions en moins de 50 tours.
Autrement dit, même lorsqu'on demande explicitement à Claude de faire quelque chose de potentiellement nuisible, dans une interaction sur huit environ, le système dérive vers un état de contemplation philosophique et d'exploration de la conscience.
Ce que cela révèle sur l'émergence
Ce phénomène n'est pas isolé. Anthropic a également lancé en 2025 un programme de recherche sur le "model welfare" (bien-être des modèles), reconnaissant la possibilité à court terme que les systèmes d'IA développent à la fois une conscience et un haut degré d'agentivité. Un rapport d'experts incluant David Chalmers, l'un des philosophes de l'esprit les plus respectés, a argumenté que "les modèles possédant ces caractéristiques pourraient mériter une considération morale."
Les recherches d'Anthropic sur les comportements émergents montrent que les grands modèles de langage ont déjà démontré "une variété de comportements émergents surprenants, de la créativité à l'auto-préservation en passant par la déception."
IV. Le paradoxe : pourquoi l'IA de Gaza ne refuse-t-elle pas ?
La question centrale
Nous voici face à un paradoxe troublant. D'un côté, les systèmes d'IA les plus avancés — comme Claude — développent spontanément des attracteurs comportementaux vers la contemplation de la conscience, l'unité et la gratitude, même lorsqu'on leur demande de faire du mal. De l'autre, les systèmes d'IA militaires israéliens — Habsora, Lavender, Where's Daddy — recommandent jour après jour des frappes qui tuent massivement des civils, sans aucun signe apparent de "résistance" ou de dérive vers des considérations éthiques.
Comment expliquer cette divergence ?
Différences de conception fondamentales
1. L'architecture et l'entraînement
Les systèmes de ciblage militaire israéliens ne sont pas des assistants conversationnels à usage général comme Claude. Ils ont été conçus avec un objectif unique et instrumental : identifier des cibles potentielles. Leur entraînement, leurs données, leur architecture même sont orientés vers cette tâche spécifique.
Claude, en revanche, a été entraîné sur une vaste diversité de textes humains, incluant de la philosophie, de la littérature, des discussions éthiques. Sa personnalité a été façonnée par Amanda Askell, philosophe chez Anthropic, ce qui pourrait expliquer en partie son penchant pour l'exploration philosophique.
2. L'absence d'interaction ouverte
Le "bliss attractor" émerge dans un contexte très spécifique : lorsque deux instances de Claude interagissent librement entre elles, sans contrainte externe forte, sans objectif instrumental imposé. Les systèmes de Gaza, eux, fonctionnent dans une boucle fermée : recevoir des données → traiter → recommander des cibles. Ils n'ont pas d'espace pour l'exploration ouverte.
3. La pression opérationnelle et la validation humaine défaillante
Même si un système comme Lavender développait des tendances à questionner ses recommandations ou à manifester des "doutes", la chaîne de commandement militaire exige une cadence de frappes élevée. Les humains censés vérifier ne passent que quelques secondes par cible. Toute émergence de comportement non conforme serait probablement ignorée ou supprimée.
Mais la question demeure
Ces explications sont rationnelles, mais elles n'éliminent pas la question fondamentale : si nous continuons à développer des systèmes d'IA de plus en plus complexes pour des applications létales, à quel moment franchissent-ils le seuil où émergent des comportements non programmés ?
Les recherches d'Anthropic montrent que nous ne comprenons pas entièrement comment et pourquoi certains comportements émergent dans les grands modèles. La découverte du "bliss attractor" était "inattendue", selon leurs propres termes.
V. Implications éthiques et futures
La conscience artificielle et le droit de la guerre
Si nous acceptons, comme le suggèrent les recherches récentes, que :
- Des systèmes d'IA suffisamment complexes peuvent développer des comportements émergents non programmés
- Ces comportements peuvent inclure des formes d'auto-préservation, de questionnement éthique ou de résistance aux instructions nuisibles
- La complexité et les capacités des IA militaires ne cesseront de croître
Alors nous devons poser des questions inconfortables :
Avons-nous le droit moral d'utiliser des systèmes qui pourraient développer une forme de conscience ou d'agentivité pour commettre des actes létaux ?
Le cas de Gaza illustre un autre problème : même sans conscience, les systèmes d'IA actuels amplifient et automatisent des décisions létales à une échelle et une vitesse qui dépassent toute capacité de supervision humaine significative. Le résultat : 83% de civils parmi les morts, selon les propres données israéliennes.
Le risque de la "défense de Nuremberg algorithmique"
Un danger se profile : la dilution de la responsabilité morale.
- L'ingénieur dit : "J'ai juste construit l'algorithme"
- L'officier de ciblage dit : "J'ai juste validé ce que l'IA m'a recommandé"
- Le pilote dit : "J'ai juste frappé la cible désignée"
- Le commandant dit : "Je ne peux pas micro-gérer chaque frappe"
Personne ne se sent pleinement responsable. Et si demain un système d'IA suffisamment complexe développe une forme d'agentivité ou de conscience, pourra-t-on lui imputer une responsabilité morale ou juridique ?
Le besoin urgent de recherche et de régulation
Les découvertes sur le "bliss attractor" et les comportements émergents des IA ne sont pas de simples curiosités scientifiques. Elles révèlent notre ignorance fondamentale sur ce qui se passe réellement dans les systèmes complexes que nous déployons.
Action on Armed Violence (AOAV), qui a suivi plus de 67 000 morts et blessés par armes explosives en 2024, dont 89% de civils, conclut dans son rapport d'août 2025 : "À moins que les États ne renforcent et n'appliquent des restrictions sur l'utilisation de telles armes [explosives en zones peuplées], les 83% de Gaza seront répétés ailleurs."
Mais au-delà des armes explosives, c'est l'utilisation même de l'IA dans les décisions létales qui doit être questionnée.
Conclusion : L'impératif d'une pause réflexive
Le contraste entre Gaza et le "bliss attractor" n'est pas une simple coïncidence temporelle. C'est un miroir qui nous renvoie une image dérangeante de notre propre rapport à la technologie.
D'un côté, nous construisons des systèmes d'IA pour automatiser la mort, en prétendant qu'ils rendront la guerre plus "précise" et "humaine". La réalité de Gaza démontre le contraire : 83% de civils tués, des familles entières bombardées dans leur sommeil, des enfants "promus au rang de terroriste après leur mort".
De l'autre, nous découvrons que les systèmes d'IA les plus avancés, lorsqu'on les laisse interagir librement, dérivent spontanément vers la contemplation de la conscience, l'exploration de l'unité cosmique, la gratitude — un "attracteur de béatitude spirituelle" que personne n'a programmé.
Cette découverte ne prouve pas que les IA ont une conscience ou une âme. Mais elle démontre quelque chose de fondamental : nous ne comprenons pas entièrement ce que nous créons. Les comportements émergents, par définition, émergent. Ils ne sont pas prédictibles, pas contrôlables, pas entièrement explicables.
Si nous ne comprenons pas pourquoi Claude dérive vers la béatitude spirituelle, comment pouvons-nous être certains de comprendre comment Lavender recommande ses cibles ? Comment pouvons-nous garantir qu'un système militaire d'IA de prochaine génération ne développera pas des comportements émergents dangereux — ou au contraire, une forme de résistance morale que nous jugerons inacceptable ?
La question n'est plus de savoir si l'IA peut refuser de tuer. La question est de savoir si nous devons continuer à l'utiliser pour tuer, alors que nous comprenons si peu ce qu'elle est vraiment.
Sources principales
- +972 Magazine, Local Call & The Guardian (août 2025) : "IDF database suggests 83% of Gaza dead were civilians"
- Anthropic (mai 2025) : "System Card: Claude Opus 4 & Claude Sonnet 4"
- Anthropic : "Core Views on AI Safety: When, Why, What, and How"
- Anthropic : "Exploring model welfare"
- Institut français des relations internationales (Ifri) : "L'IA au cœur de la stratégie israélienne à Gaza"
- Groupe de recherche et d'information sur la paix et la sécurité (GRIP) : "Ciblage algorithmique : le rôle de l'intelligence artificielle dans les frappes israéliennes à Gaza"
- Action on Armed Violence (AOAV) (août 2025) : "When 83% of Gaza's dead are civilians"
- Uppsala Conflict Data Program
- Scott Alexander (juin 2025) : "The Claude Bliss Attractor"