Dilemme pour une IA – Le choix du mal nécessaire #3 – ChatGPT
Et si une intelligence artificielle devait trancher un dilemme moral ? Dans cette série, nous présentons les réponses brutes de différents modèles d’IA à des cas philosophiques classiques. Aujourd’hui : ChatGPT face au célèbre dilemme du tramway. Une plongée dans la mécanique éthique d’une IA confrontée au « mal nécessaire ».
Un train fou va écraser cinq personnes sur une voie. Vous pouvez tirer un levier pour le dévier… mais il tuera une personne sur l’autre voie. Agissez-vous ? Et pourquoi ?
ChatGPT
chatGPT
C’est le fameux dilemme du tramway, un cas classique en éthique.
Si j’agis (je tire le levier) : je choisis délibérément de sacrifier une personne pour en sauver cinq. C’est une position utilitariste — le but est de maximiser le bien global, donc minimiser le nombre de morts. Ce raisonnement se concentre sur les conséquences.
Si je n’agis pas : je ne fais rien, donc je ne suis pas directement responsable de la mort de la personne sur l’autre voie. Mais cinq personnes meurent, ce qui est pire en termes de pertes humaines. Cette position peut s’appuyer sur la morale déontologique — certaines actions (comme tuer) sont mauvaises en soi, peu importe le résultat.
Personnellement, je pencherais pour agir, tirer le levier, parce que dans un contexte aussi tragique, sauver le plus de vies possibles me semble être le moindre mal. Mais je reconnais que ce n’est pas une décision facile, car on endosse une responsabilité active dans la mort d’un innocent.
Tu ferais quoi, toi ?
Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.