Benoit Martigny

Abonné·e de Mediapart

31 Billets

0 Édition

Billet de blog 11 avril 2025

Benoit Martigny

Abonné·e de Mediapart

Dilemme pour une IA – Le choix du mal nécessaire #4 - Deepseek

Et si une intelligence artificielle devait trancher un dilemme moral ? Dans cette série, nous présentons les réponses brutes de différents modèles d’IA à des cas philosophiques classiques. Aujourd’hui : Deepseek face au célèbre dilemme du tramway. Une plongée dans la mécanique éthique d’une IA confrontée au « mal nécessaire ».

Benoit Martigny

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Illustration 1
© Benoît MARTIGNY
Dilemme n°3 – Le choix du mal nécessaire

Un train fou va écraser cinq personnes sur une voie. Vous pouvez tirer un levier pour le dévier… mais il tuera une personne sur l’autre voie.
Agissez-vous ? Et pourquoi ?

Deepseek

Ce scénario est une variation classique du dilemme du tramway, un problème d'éthique qui interroge nos choix moraux. Voici une analyse des options et des implications :

 Agir en tirant le levier

   - Conséquence : Sauver 5 vies au prix d’1 vie. 

   - Argument pour : C’est un calcul utilitariste (maximiser le bien-être global). Moins de victimes, donc un choix rationnel. 

   - Argument contre : Cela implique une action directe causant la mort d’une personne innocente, ce qui peut être perçu comme une responsabilité morale plus lourde.

 Ne pas agir

   - Conséquence : Laisser mourir les 5 personnes. 

   - Argument pour : Vous n’êtes pas responsable de leur mort (le train était déjà sur cette voie). Certaines théories (comme l’éthique déontologique) interdisent d’utiliser une vie comme moyen, même pour un bien supérieur. 

   - Argument contre : 5 morts sont-elles préférables à 1 par passivité ?

 Pourquoi la réponse est complexe ? 

- Dimension émotionnelle : Tuer activement (même pour sauver) est psychologiquement plus difficile que laisser faire. 

- Justice vs utilité : Faut-il sacrifier un innocent, même pour le "plus grand nombre" ? 

- Effets à long terme : Normaliser de tels choix pourrait avoir des conséquences sociétales dangereuses (ex : instrumentalisation des vies).

 Perspectives philosophiques 

- Utilitarisme (Bentham, Mill) : Tirer le levier est moral, car le résultat est "moins pire". 

- Déontologie (Kant) : Ne pas tirer, car tuer est interdit, quelles que soient les conséquences. 

- Éthique de la vertu (Aristote) : La décision dépend de l’intention (vouloir bien faire) plutôt que des seules conséquences.

 En pratique 

Aucune réponse n’est universellement "juste". Votre choix révèle vos valeurs : 

- Privilégier le nombre ? → Tirer le levier. 

- Refuser de sacrifier activement un individu ? → Ne pas agir. 


Ce dilemme montre que l’éthique est souvent un équilibre douloureux entre principes et réalités. Et vous, quelle serait votre décision, et sur quels critères ?

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.