Conduite automatique et aléa moral: qui vivra, qui mourra ?


2015-05-21_11h17_05Par Moon of Alabama – Le 26 octobre 2018

Bien que de nombreuses entreprises de la Silicon Valley travaillent sur des voitures autonomes, de nombreuses personnes restent sceptiques à leur sujet. L’introduction de telles voitures soulève des problèmes techniques, juridiques et surtout moraux.

La conduite autonome se situe à différents niveaux. Un assistant de stationnement peut aider les personnes qui ne peuvent pas se garer autrement de manière décente. Les voitures qui conduisent de manière automatisée sur des routes dégagées mais sous la surveillance d’un conducteur peuvent faillir car le conducteur qui supervise s’ennuie et ne se concentre plus sur l’état de la circulation. Les voitures entièrement autonomes, qui n’ont pas besoin de chauffeur, sont encore loin de l’état de l’art.

La Society of Automotive Engineers définit l’automatisation complète de la conduite d’un véhicule comme étant :

…la performance à plein temps grâce à un système de conduite automatisant tous les aspects de la tâche de conduite dynamique dans toutes les conditions routières et environnementales pouvant être gérées par un conducteur humain.

Les voitures autonomes dépendent de capteurs pour avoir une vision de la situation. Le capteur peut faillir. Il peut être leurré par des phénomènes météorologiques ou des attaques délibérées. Les voitures autonomes ont besoin d’un logiciel extrêmement complexe pour prendre des décisions. Paraphrasant Tony Hoare :

Il existe deux types de programmes informatiques. L’un est si simple qu’il ne contient évidemment aucune erreur. L’autre est tellement compliqué qu’il ne contient aucune erreur évidente.

Toutes les voitures autonomes auront des bogues. Leur logiciel est extrêmement compliqué et il y aura des erreurs. Elles recevront des mises à jour avec encore plus d’erreurs et des conséquences imprévisibles. Même Microsoft, le plus grand éditeur de logiciels au monde, a récemment bousillé une mise à jour régulière de Windows 10. Celle-ci supprimait les données utilisateur sur le disque local et dans le « cloud » où elles étaient censées être en sécurité. Qui sera coupable quand une voiture autonome affichera sur l’écran bleu Fatal Error et causera un accident ?

Stop Auto Reset after a Blue Screen Error on Windows ...

Outre les problèmes techniques et juridiques, les voitures autonomes créent également des problèmes moraux. Elles ont besoin de règles pour décider quoi faire dans des situations extrêmes. Un enfant bondit devant la voiture. Devra-t-elle continuer tout droit et heurter l’enfant ? Ou bien virer à gauche vers le groupe des personnes âgées qui discutent ? Ou à droite où un policier délivre des contraventions de stationnement ? Quel ensemble de règles le logiciel de la voiture devrait-il utiliser pour décider dans de telles situations ?

Des chercheurs ont interrogés des gens, dans le monde entier, sur le comportement que devrait avoir une « machine morale ». Les personnes interrogées ont été confrontées à treize scénarios différents avec deux réponses possibles et ont dû cliquer sur leur option préférée. S’il est inévitable de tuer une personne pour en laisser une autre survivre, préféreriez-vous que la femme ou l’homme subsistent ? La personne la plus âgée ou la plus jeune ? Les passagers de la voiture ou les piétons qui traversent la route malgré un feu rouge ?


Découvrez les scénarios et décidez vous-même.

Les résultats préliminaires de l’étude volumineuse mais non représentative ont été récemment publiés dans Nature. Les personnes qui ont répondu préféraient épargner les poussettes, les enfants et les femmes enceintes. Les gros, les vieux, les SdF et les chiens étaient morts.

Qui préférez-vous épargner ?

L’étude a révélé des différences culturelles et économiques. Les habitants des pays asiatiques de tradition confucéenne manifestaient une préférence accrue pour les personnes âgées. Les pays de tradition chrétienne préféraient les plus jeunes. Les Latino-Américains préféraient davantage la survie d’un homme que ceux des autres cultures. En tant que personne âgée en Europe, je ne suis pas vraiment à l’aise avec ces résultats.

Inévitablement, l’inclusion de telles préférences dans les machines décisionnelles devra à un moment donné être légalisée par un vote. Quelle décision prendraient les législateurs pour ce qui les concerne ?

Les personnes qui ont passé le test ont sacrifié les « SdF ». La décision de la « machine morale » doit-elle être combinée avec un statut social ?

Le gouvernement chinois met actuellement en place un système de crédit social pour tous ses citoyens. La réputation d’une personne sera jugée par une note unique calculée à partir de plusieurs facteurs. Une contravention au code de la route diminuera votre réputation personnelle, un bon comportement avec vos voisins l’augmentera. Acheter trop d’alcool est mauvais pour la note, féliciter publiquement l’establishment politique est bon. Une mauvaise réputation aura des conséquences. Ceux qui ont de mauvaises notes peuvent ne pas être autorisés à prendre l’avion ou à visiter certains endroits.

Le concept semble horrible, mais il n’est ni nouveau ni surtout chinois. Les scores de crédit sont régulièrement utilisés pour décider si les personnes peuvent obtenir un prêt pour une maison. Les systèmes actuels de notation du crédit sont des boîtes noires. Les données avec lesquelles ils travaillent sont souvent obsolètes ou fausses. Les entreprises qui les dirigent n’expliquent pas comment la décision est prise. La liste d’interdiction de vol du gouvernement américain démontre qu’un système géré par l’État ne vaut pas mieux

La première vague de la révolution informatique a créé des systèmes autonomes. La vague actuelle en crée de nouveaux en beaucoup plus grand.

Il est facile de penser à un scénario futur dans lequel chaque personne obtiendra un implant de micro-puce lisible sans fil pour l’identifier. Dans un scénario « vivre ou mourir », la voiture autonome pourrait lire les implants de puces de toutes les personnes impliquées, demander leurs scores de réputation au système de crédit social et décider de prendre les mesures appropriées. En fin de compte, il en résulte une réduction de la « valeur sociale ». Les personnes « bien notées » survivraient, les « criminels » mourraient.

Serions-nous à l’aise dans un tel système ? Pouvons-nous lui faire confiance ?

Moon of Alabama

Traduit par jj, relu par wayan pour le Saker Francophone

   Envoyer l'article en PDF