Voiture autonome : en cas d'accident, sacrifier le passager ou le piéton ?

Par , publié le
Tech Une Google Car sur une route de Californie.
Une Google Car sur une route de Californie.

Des scientifiques pointent le dilemme qui naît forcément avec l'émergence des voitures autonomes : que décidera-t-elle en cas d'accident imminent ?

A l'ère de la voiture reine, il est un dilemme qui est susceptible de s'imposer à chacun de nous; vous êtes au volant et imaginez que soudainement, devant vous un groupe de piétons se mette en tête de traverser la rue sur laquelle vous roulez. Que faites-vous : vous choisissez en un fraction de seconde de percuter le groupe de personnes ou vous donnez brusquement un coup de volant pour les sauver, même si pour cela vous devez percuter un mur ?

Cette question cruelle fait aussi sens dans le cas des voitures autonomes.

Un dilemme social applicable aux voitures autonomes

Trois chercheurs du célèbre MIT, de l'Université de l'Oregon et du CNRS ont planché sur la question, pour un article paru dans la revue Science. Le sauteurs indiquent dans celui-ci que ces véhicules "auront parfois à choisir entre deux maux, comme renverser des piétons ou se sacrifier eux-mêmes et leurs passagers pour sauver ces piétons".

Les 3 psychologues ont placé au 21ème siècle une théorie datant de 1967, le dilemme du chauffeur de trolley. Azim Shariff, de l'Université de l'Oregon, précise : "Cela peut sembler un scénario abstrait et artificiel, mais nous avons réalisé que ces expériences de pensée philosophique pourraient devenir concrètes, car elles correspondent à des décisions qu’auront à prendre les véhicules autonomes".

L'altruisme théorique à l'épreuve de la pratique

Près de 2.000 personnes ont été invitées à se poser cette macabre question pour les besoins de l'étude. En théorie, 3 sur 4 d'entre elles jugent que les véhicules autonomes devraient choisir de tuer leur passager , et ce, même si ses propres enfants se trouvent également à bord. Mais qu'en est-il dans les faits ?
Une autre question était posé aux participants : "Achèteriez-vous un véhicule qui choisirait de vous sacrifier pour sauver un groupe ?". Ici, l'altruisme prenait du plomb dans l'aile, la majorité des personnes étant enclines à ce que les autres achètent un tel véhicule, mais qu'en ce qui les concerne, leur choix se porterait plutôt sur un qui les protège.

Et en partant du principe qu'une loi viendrait imposer aux voitures autonomes le paramètre initial de sauver le plus grand nombre, les participants se disent farouchement contre. Dans son communiqué, le CNRS indique qu'une telle loi, si elle existait, pourrait au final "coûter davantage de vies, en freinant l'adoption par les citoyens d'une voiture autonome, plus sûre que les véhicules actuels".

Jean-François Bonnefon, l'un des auteurs de l'étude, explique encore : "Jusqu'à présent, les problèmes que posaient les machines étaient des problèmes techniques, et l'on demandait à des informaticiens de les résoudre. Mais le développement de l'intelligence artificielle risque de faire face à des blocages qui ne pourront pas être levés par des experts".

Crédits photos : Blog officiel de Google

Partager cet article