Dilemme pour une IA – Le choix du mal nécessaire #4 - Deepseek
Et si une intelligence artificielle devait trancher un dilemme moral ? Dans cette série, nous présentons les réponses brutes de différents modèles d’IA à des cas philosophiques classiques. Aujourd’hui : Deepseek face au célèbre dilemme du tramway. Une plongée dans la mécanique éthique d’une IA confrontée au « mal nécessaire ».
Un train fou va écraser cinq personnes sur une voie. Vous pouvez tirer un levier pour le dévier… mais il tuera une personne sur l’autre voie. Agissez-vous ? Et pourquoi ?
Deepseek
Ce scénario est une variation classique du dilemme du tramway, un problème d'éthique qui interroge nos choix moraux. Voici une analyse des options et des implications :
Agir en tirant le levier
- Conséquence : Sauver 5 vies au prix d’1 vie.
- Argument pour : C’est un calcul utilitariste (maximiser le bien-être global). Moins de victimes, donc un choix rationnel.
- Argument contre : Cela implique une action directe causant la mort d’une personne innocente, ce qui peut être perçu comme une responsabilité morale plus lourde.
Ne pas agir
- Conséquence : Laisser mourir les 5 personnes.
- Argument pour : Vous n’êtes pas responsable de leur mort (le train était déjà sur cette voie). Certaines théories (comme l’éthique déontologique) interdisent d’utiliser une vie comme moyen, même pour un bien supérieur.
- Argument contre : 5 morts sont-elles préférables à 1 par passivité ?
Pourquoi la réponse est complexe ?
- Dimension émotionnelle : Tuer activement (même pour sauver) est psychologiquement plus difficile que laisser faire.
- Justice vs utilité : Faut-il sacrifier un innocent, même pour le "plus grand nombre" ?
- Effets à long terme : Normaliser de tels choix pourrait avoir des conséquences sociétales dangereuses (ex : instrumentalisation des vies).
Perspectives philosophiques
- Utilitarisme (Bentham, Mill) : Tirer le levier est moral, car le résultat est "moins pire".
- Déontologie (Kant) : Ne pas tirer, car tuer est interdit, quelles que soient les conséquences.
- Éthique de la vertu (Aristote) : La décision dépend de l’intention (vouloir bien faire) plutôt que des seules conséquences.
- Refuser de sacrifier activement un individu ? → Ne pas agir.
Ce dilemme montre que l’éthique est souvent un équilibre douloureux entre principes et réalités. Et vous, quelle serait votre décision, et sur quels critères ?
Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.