Voiture autonome : "en cas d'accident, qui doit-elle sauver ? Qui doit-elle sacrifier ?"

  • A
  • A
Voir la vidéo sur Dailymotion
Partagez sur :
La sécurité des voitures autonomes est l'un des principaux enjeux du salon de l'automobile qui s'est ouvert mercredi à Pékin. En cas d'accident, des questions éthiques se posent.
INTERVIEW

Sommes-nous vraiment prêts à laisser la conduite de nos voitures à une machine ? La mort d'une piétonne, renversée par une voiture autonome construite par Uber, il y a quelques semaines en Californie, a relancé le débat sur la sécurité de ces nouveaux moyens de transport. Mais également sur la programmation des logiciels de pilotage qui décident, en cas de danger, de protéger l'automobiliste, et donc de sacrifier la personne qui surgit sur la voie. 

Jean-François Bonnefon, chercheur au CNRS, étudie depuis longtemps les enjeux éthiques de telles avancées technologiques. Il a conçu une "moral machine" avec d'autres chercheurs américains, afin de confronter les internautes à différents scénarios d'accidents. "Nous nous intéressons à ces situations - qui sont extrêmement rares - où une voiture autonome pourrait avoir à choisir entre différentes victimes. Quand elle ne peut pas éviter l'accident, que chaque trajectoire fait des victimes, alors qui doit-elle sauver ? Qui doit-elle sacrifier ?", interroge le spécialiste. Il est venu parler du résultat de ses recherches dans C'est arrivé cette semaine, samedi matin sur Europe 1.

Europe 1
Par A.H.