La voiture sans chauffeur va-t-elle sacrifier un passager pour sauver un piéton ?

On imagine une publicité de ce type « Egoist1/10, la seule voiture qui sacrifie 10 piétons pour vous sauver la vie » ! Comment programmeriez-vous la voiture pour gérer diverses situations d'accidents ?

En mars 2017, Martin Vetterli, le président de l’EPFL affirmait vouloir mettre de l’éthique au cœur des formations car « demain, l’ingénieur devra savoir quelle décision aura à prendre une technologie comme la voiture autonome: mettre en risque la vie d’un piéton ou celle du conducteur ? »

En avril 2017, aux scientifiques de l’INRIA de Grenoble qui lui présentaient la voiture sans chauffeur, Emmanuel Macron posait cette question : "Si j'ai face à moi un jeune qui traverse, à gauche un vélo et à droite une maman qui a une poussette, comment je fais ?" (Voir ici minute 33 à 36).

Effectivement, la voiture autonome, à la seconde où elle mesure qu’elle ne peut plus éviter une collision mortelle, doit décider qui sera sacrifié. Il faut donner des règles au logiciel qui prend les décisions.

Sans règle légale, le constructeur de la voiture autonome programmera les règles que souhaitent les acheteurs. Une étude[1] réalisée par des chercheurs, a montré qu’un conducteur sur quatre seulement sacrifierait le passager pour économiser la vie de deux piétons.

On imagine bien une  publicité de ce type « Egoist1/10, la seule voiture qui sacrifie 10 piétons pour vous sauver la vie »

Dans une conférence TedX, Iyad Rahwan, chercheur au MIT, explore les dilemmes d’un observateur externe face à ce type de problématique.

Un jeu a été mis à disposition des internautes. Face à plusieurs situations, il vous permet d’analyser votre comportement. Je vous suggère de faire le test avant de continuer cet article.

Alors ? Avez-vous préféré qu’un chien soit écrasé plutôt qu’un piéton comme 80% des observateurs … ou que soit sacrifié le piéton plutôt que le chien comme les 20% restant ?

Les préférences spécifiées dans ce test distinguent 7 catégories : vieux/jeune, passager/piéton, homme/femme, cambrioleur/médecin, piéton au feu vert/piéton au feu rouge, animal/homme, personne corpulente/athlétique.

Pour réaliser le logiciel de pilotage, on pourra décider de prendre en compte les préférences moyennes des observateurs. Dans l’exemple de l’arbitrage entre chien et piéton, pour respecter le souhait des 2 personnes sur 10 qui préfèrent épargner le chien, la machine simulera un tirage au sort d’un nombre entre 1 et 10. Si une valeur entre 1 à 8 est tirée, le pilote automatique écrasera le chien. 9 ou 10, ce sera le piéton.

Si toute la population est sollicitée, c’est une forme de démarche éthique « démocratique ».

Mais que vaut ce type d’arbitrage ? Que choisirait finalement l’observateur qui affirme préférer sacrifier un passager plutôt qu’un piéton, s’il savait que le piéton fait 500 000 km par an en avion pour vendre à des milliardaires des voyages dans l’espace alors que le passager n’a pas de voiture personnelle pour limiter le changement climatique et fait donc du covoiturage ?

Cette démarche éthique « démocratique » qui pourrait conduire à sacrifier un piéton à un chien, peut heurter les partisans de l’adoption d’une  éthique de type « déontologique ». C’est le choix de l’Allemagne qui s’est dotée fin aout 2017 de règles éthiques pour les véhicules autonomes. Elle se base sur deux principes :

  1. La vie humaine doit toujours avoir la priorité sur la vie animale et les objets.
  2. Toutes les vies humaines ont la même valeur. La voiture, en cas de choc qui semble inévitable, ne devra pas privilégier la vie d’un bébé par rapport à celle d’une personne âgée.

Le premier principe se laisse questionner. Si pour sauver une vie humaine, il faut faire des millions d’euros de dégâts, les « utilitaristes » prétendront qu’il serait plus juste d’utiliser cet argent pour sauver des populations victimes de malnutrition.

Le deuxième principe semble être consensuel. S’il fallait choisir entre les vies de 3 passagers et celle d’un piéton, les positions « utilitariste » et « déontologique » préserveraient toutes deux les passagers.

Pourtant, un principe de responsabilité n’est-il pas oublié ? Le passager qui utilise la voiture autonome prend le risque qu’elle provoque un accident. En échange du risque et du prix de location de la voiture, il obtient un service, celui de circuler plus rapidement qu’à pied. Le piéton doit-il subir le même risque alors qu’il n’a pas obtenu de service ?

Le logiciel pourrait donc être programmé pour sacrifier les passagers et préserver le piéton.

Rien ne semble jamais satisfaisant en éthique !

Il reste une méthodologie éthique à explorer qui s’inspire du « pragmatisme » proposé par le philosophe Dewey et des conférences citoyennes initiées par Jacques Testard.

Pour y participer, formez un groupe d’au moins 5 personnes, prévoyez trois réunions de 1h30, un peu de temps pour enquêter sur la toile ou questionner des experts. Envoyez un mail à denis.dupre@univ-grenoble-alpes.fr pour recevoir une méthodologie d’organisation des réunions.

Votre objectif sera de formaliser vos règles de programmation du logiciel de la voiture autonome qui devront permettent de trancher notamment les cas décrits par le MIT.

A partir des propositions de règles de chaque groupe, nous convergerons vers une réglementation de pilotage.

Rendez-vous dans quelques mois pour présenter cette réglementation de pilotage et la manière dont nous l’avons obtenue.

 Cet article a été publié par le Temps de Genève (lire ici).

[1] BONNEFON, Jean-François, SHARIFF, Azim, et RAHWAN, Iyad. The social dilemma of autonomous vehicles. Science, 2016, vol. 352, no 6293, p. 1573-1576.

 

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.