" La voiture qui en savait trop, l'intelligence artificielle a-t-elle une morale? "
- AI for Citizen
- 15 sept. 2021
- 4 min de lecture
A l’occasion du Salon de l’automobile de Munich « IAA Mobility », du 7 au 12 septembre, nous vous proposons un point de vue sur le livre de Jean-François Bonnefon, « La voiture qui en savait trop, l'intelligence artificielle a-t-elle une morale ? » (2019)

Quel choix la voiture devrait-elle faire ?
En mai 2016, Tesla annonce le 1er accident mortel d’une de ses voitures autonomes - un véhicule capable de rouler sans l'intervention d'un être humain :
En mai 2016, Tesla annonce le 1er accident mortel d’une de ses voitures autonomes - un véhicule capable de rouler sans l'intervention d'un être humain : le conducteur était en pilote automatique – mode de conduite dans lequel la voiture se conduit toute seule mais demande quand même au conducteur d'être vigilant et d’avoir les mains sur le volant afin d’en prendre le contrôle, si nécessaire. L’accident devient alors ultra-médiatisé et questionne sur les limites de la responsabilité d’une machine. Un véhicule autonome peut-il comprendre son environnement ? Un pilote automatique peut-il être intelligent ? Un être humain est capable de reconnaître un objet vu de face, de derrière et même de côté, il s’agit d’une capacité essentielle à sa survie. Pourtant, une telle aptitude n’est pas intuitive pour une machine. Que se passerait-il s’il n’y avait pas de conducteurs dans nos véhicules ? D’après de nombreux sondages, les citoyens veulent collectivement vivre dans une société où les voitures autonomes sauvent le plus grand nombre de personnes, alors qu’individuellement, chacun veut acheter une voiture qui le protège. Les citoyens sont- ils disposés à voir le gouvernement adopter une loi allant à l’encontre des préférences des consommateurs ? Prenons un exemple. Une voiture autonome dont les freins sont défectueux, doit choisir entre écraser un piéton qui traverse tranquillement la rue ou s’écraser contre un mur, causant probablement la mort de l’occupant de la voiture. Pour que cette dernière prenne une décision, elle aurait dû préalablement être programmée avec des critères moraux. Mais, qui va définir de tels critères ? Une équipe de chercheurs du MIT, de l’Université de l’Oregon et de la Toulouse School of Economics s’est posé la question. Un dilemme qui, d'autre part, pourrait également être envisagé pour un conducteur humain…
« La programmation morale des véhicules autonomes ne peut être laissée à un seul acteur. » “La programmation morale des véhicules autonomes ne peut être laissée à un seul acteur. Tous les acteurs impliqués dans le trafic ont leur mot à dire. L'opinion publique et les consommateurs, avec leurs préférences, imposeront des restrictions sur ce qui est socialement acceptable ; tandis que les gouvernements devront écouter attentivement les constructeurs automobiles pour ne pas imposer des contraintes technologiques irréalistes.", affirme Jean-François Bonnefon, professeur à la Toulouse School of Economics et co-auteur de l'étude "The Moral Machine experiment" publiée par la revue Science en 2018. Leur étude met ainsi en évidence les contradictions de cette évolution technologique. Par exemple, la majorité des personnes interrogées (76 %) seraient prêtes à sacrifier leur propre vie si leur véhicule autonome dans lequel elles se trouvent estimait, dans une situation extrême, qu'il sauverait davantage de personnes. Cependant, dans une autre question, la majorité a admis qu'elle préférerait ne pas acheter une voiture autonome sachant à l'avance qu'elle n'était pas programmée pour sauver en priorité le conducteur.
Le 1er comité d’éthique sur les voitures autonomes en Allemagne En 2017 en Allemagne, un comité d’éthique sur les voitures autonomes a été le 1er au monde à émettre des recommandations à ce sujet. Ce document pionnier déclare qu’une vie humaine passe toujours en priorité sur une vie animale (un chien qui traverse la route, par exemple) et sur les objets. De plus, toutes les vies humaines ont la même valeur. C’est à dire, en cas d’accident inévitable, la voiture ne doit pas privilégier sauver un homme à une femme ou un bébé plutôt qu’une personne âgée. L’apparence de la personne ne doit pas non plus être prise en compte, par exemple, un sans-abri ne doit pas être sacrifié au profit d’un jeune travailleur... En ce qui concerne les passagers, la voiture ne doit pas non plus faire de choix. Les recommandations rendues par les pouvoirs publics seront certainement adaptées au contexte local, comme le montre les réponses de l’étude qui prouve que les scénarios choisis par les personnes s’adaptent à l’importance dans la société accordée à une certaine tranche d’âge ou de sexe.
Et pour le futur ? Sommes-nous prêts pour avoir de telles voitures sur nos autoroutes ? Comment les piétons ou les autres acteurs de la circulation se comporteront-ils lorsqu'ils devront interagir avec ces véhicules ? Les politiques publiques doivent prendre en compte tous ces facteurs avant d'intégrer les voitures autonomes dans le trafic réel, sachant que justement elles pourraient faire moins d’accidents que les humains. Notre réseau routier et nos infrastructures devront eux-mêmes évoluer pour répondre aux impératifs technologiques et sécuritaires que pose cette technologie. Pour les curieux qui veulent tester leurs choix et juger quel scénario leur semble le plus acceptable, voici le projet The Moral Machine. Jean-François Bonnefon, La voiture qui en savait trop, L'intelligence artificielle a-t-elle une morale ?, Humensciences, 192 pages, (2019) Auteure du point de vue : Maria Renée Palomo
留言