Par Seth Baum – Le 22 février 2015 – Bulletin of the Atomic Scientists
Deux fois seulement dans l’histoire, des nations se sont mises d’accord pour interdire une arme avant qu’elle n’ait jamais été utilisée.
En 1868, les grandes puissances ont signé la Déclaration de Saint-Pétersbourg pour interdire les balles explosives qui, en diffusant des fragments de métal dans le corps de la victime, causaient plus de souffrance que les balles ordinaires. Et le Protocole de 1995 sur les armes à laser aveuglantes a maintenant 104 signataires qui ont accepté d’interdire ces armes au motif qu’elles pourraient causer des souffrances excessives aux soldats en les rendant définitivement aveugles.
Aujourd’hui, un groupe d’ONG s’efforce de faire interdire une autre arme qui n’a pas encore été utilisée, une arme entièrement autonome qu’on appelle le robot tueur. En 2012 ce groupe a mené la Campagne pour arrêter le robot tueur dans le but d’obtenir son interdiction. A la différence des drones téléguidés couramment utilisés aujourd’hui, ces robots militaires sont des armes totalement autonomes; ils sont programmés pour prendre des décisions par eux-mêmes. Une fois déployés, ils identifient des cibles et les attaquent sans aucune autorisation humaine. Il n’en existe pas encore, mais la Chine, Israël, la Russie, le Royaume-Uni et les Etats-Unis développent activement cette nouvelle technologie, selon la Campagne.
Il est important que la Campagne pour arrêter les Robots tueurs parvienne soit à obtenir une interdiction pure et simple soit au moins à susciter un débat qui entraîne la mise en place d’une réglementation judicieuse et efficace. C’est essentiel, et pas seulement pour empêcher des armes totalement autonomes de causer des dégâts, le succès de ce mouvement nous apprendra aussi comment interdire à l’avance de nouvelles technologies militaires.
Des armes totalement autonomes ne sont pas entièrement mauvaises. Elles peuvent réduire le fardeau des soldats. Des robots militaires sauvent déjà la vie de nombreux soldats, par exemple en neutralisant les engins explosifs improvisés en Afghanistan et en Irak. Plus les capacités de ces robots militaires sont grandes, plus ils peuvent protéger les soldats. Ils peuvent également remplir des missions que les soldats et les armes non-autonomes ne peuvent pas remplir.
Mais les inconvénients potentiels sont importants. Les militaires pourraient tuer davantage si personne n’a à porter la charge émotionnelle de décider des frappes. Les gouvernements pourraient déclarer davantage de guerres si leurs soldats devaient moins en souffrir. Les tyrans pourraient envoyer des armes entièrement autonomes contre leurs propres peuples si les soldats humains refusaient de leur obéir. Et les machines pourraient dysfonctionner – comme cela arrive à toutes les machines – et se mettre à tuer les amis comme les ennemis.
De plus, les robots pourraient avoir des problèmes à reconnaître des cibles irrecevables comme les civils et les combattants blessés. Il est relativement facile pour un être humain de distinguer une personne d’une autre mais un schéma de reconnaissance des formes aussi fin est très difficile à programmer dans une machine. Les ordinateurs ont surpassé les humains dans des domaine comme la multiplication, mais en dépit des efforts, leur capacité à reconnaître les visages et les voix demeure rudimentaire. La technologie aurait à surmonter ce problème pour que les robots ne tuent pas les mauvaises personnes.
Un gouvernement qui déploierait une arme qui attaque des civils violerait le droit international humanitaire. C’est cela qui sert de fondement à la campagne contre les robots tueurs. Le mouvement humanitaire mondial pour le désarmement a utilisé des arguments similaires pour obtenir l’interdiction internationale des mines terrestres et des armes à sous-munitions, et son action en vue d’une interdiction des armes nucléaires progresse.
Si la Campagne pour arrêter les Robots tueurs réussit, ce sera salué comme un véritable exploit. Il est en effet très rare que des armes soient interdites avant même d’être utilisées car cela exige un gros travail d’anticipation, alors que les êtres humains ont plutôt tendance à être réactifs. Lorsque les gens sont touchés par un événement bouleversant, cela les motive à agir. C’est ainsi que l’ouragan Katrina qui a dévasté la Nouvelle-Orléans en 2005, a fait naître des inquiétudes sur le réchauffement climatique, et la catastrophe de Fukushima en 2011, des inquiétudes sur la sécurité des centrales nucléaires.
Les campagnes humanitaires qui ont réussi comme celles contre les mines terrestres et les armes à sous-munition ont fait un usage très efficace des nombreuses victimes mutilées par ces armes. La campagne humanitaire actuelle contre les armes nucléaires s’appuie de la même façon sur les Hibakusha – les victimes des bombes de Hiroshima et de Nagasaki en 1945 – et les victimes des essais atomiques. La question de la vie et de la mort est infiniment mieux mise en lumière par les victimes et leur histoire que par des statistiques abstraites et des arguments juridiques. Aujourd’hui, il n’y a pas de victimes d’armes totalement autonomes de sorte que la campagne doit être prospective et anticipatrice plutôt que réactive, et s’appuyer sur les dommages prévisibles.
La protection contre le danger que représentent les robots tueurs est un objectif honorable en soi. Mais l’aspect le plus important de la Campagne pour arrêter les robots tueurs est de créer un précédent en tant qu’effort prospectif pour protéger l’humanité contre les technologies émergentes qui pourraient définitivement mettre fin à la civilisation et à l’humanité. Les développements de la biotechnologie, de la géo-ingénierie et de l’intelligence artificielle, entre autres, pourraient s’avérer si destructeurs que la réponse viendrait trop tard. La campagne contre les armes totalement autonomes est un test, un échauffement. L’humanité doit apprendre à se protéger de manière anticipée des nouvelles technologies d’armement, parce se contenter de réagir ne nous sauvera pas.
Seth Baum
Seth Baum est le directeur exécutif de l’Institut des Risques de Catastrophes Mondiales, un groupe de réflexion sans but lucratif que Baum a co-fondé en 2011. Les recherches de Baum portent sur le risque, l’éthique, et les choix politiques concernant les principales menaces contre l’humanité, y compris les guerres atomiques, le réchauffement climatique et les nouvelles technologies
Traduit par Dominique, relu par jj pour le Saker Francophone