Par Binoy Kampmark – Le 5 février 2021 – Source Oriental Review
Le fantôme d’Edward Teller a dû faire le tour des membres de la Commission Nationale sur l’Intelligence Artificielle. Le père de la bombe à hydrogène ne fut jamais trop préoccupé par des doutes d’ordre éthique liés à l’invention de technologies meurtrières. Ce n’était pas, par exemple, « le travail des scientifiques de déterminer si une bombe à hydrogène devait être construite, si elle devait être utilisée ou comment elle devait être utilisée ». La responsabilité, de quelque manière qu’elle soit exercée, revenait au peuple américain et à ses représentants élus.
L’utilisation de l’Intelligence Artificielle a tourmenté les gens attachés à l’éthique, mais enthousiasme certains leaders et inventeurs. Le Président russe Vladimir Poutine a affirmé avec grandiloquence qu’« il était impossible d’assurer (sécuriser ?) le futur de notre civilisation » sans une maîtrise de l’Intelligence Artificielle, de la génétique, des systèmes d’armes sans équipage et des armes hypersoniques.
Les militants contre l’utilisation de systèmes d’armes automatisés dans les guerres voient leur nombre grandir. Le secrétaire général de l’ONU, Antonio Guterres, est l’un d’entre eux. « Les machines automatisées avec le pouvoir et la discrétion de choisir des cibles et de prendre des vies sans implication humaine » écrivait-il sur Twitter en Mars 2019 « sont inacceptables politiquement, répugnantes moralement, et devraient être interdites par les lois internationales ». Le Comité International pour le contrôle des armes robotisées, la Campagne pour arrêter les robots tueurs et Human Rights Watch sont dévoués au bannissement des systèmes d’armes automatisées létales. Les experts en armements tels que Zachary Kallenborn considèrent cette position catégorique comme intenable, préférant un bannissement plus modeste sur les armes présentant le risque le plus élevé ; les nuées de drones, les armes automatisées chimiques, biologiques, radiologiques et nucléaires.
Les détracteurs de tels système d’armements étaient tenus à distance dans le projet de rapport de la Commission destiné au Congrès. Ce document a vraiment un air de scientifique fou au service sanguinaire d’un maître. C’est logique, étant donné que le président en est Éric Schmidt, conseiller technique chez Alphabet Inc., Compagnie mère de Google, dont il était le directeur exécutif. Avec Schmidt aux commandes, nous pouvions être sûrs d’un show dépouillé de toute entrave morale. « La promesse de l’IA, c’est à dire qu’une machine puisse percevoir, décider et agir plus rapidement, dans un environnement plus complexe, avec plus de précision qu’un humain – constitue un avantage concurrentiel dans tout domaine. Elle sera employée à des fins militaires, par des gouvernements et des groupes non-étatiques. »
Dans sa déposition devant le Comité de services armés du Sénat, le 23 Février, Schmidt a mis en exergue les « fondamentaux » consistant à conserver l’ascendant US. Cela incluait le maintien de la compétitivité nationale et la conception de la chose militaire avec ces fondamentaux à l’esprit. Mais pour ce faire, cela nécessitait de la part de l’establishment (responsable de la sécurité) de garder les yeux grands ouverts sur tout dangereux rival. (Schmidt comprend suffisamment bien le Congrès pour savoir que les pics de financement et de dépenses tendent à être liés à la mise en évidence de menaces). Il voit « la menace de la supériorité chinoise dans les domaines de technologies-clés. » comme « une crise nationale ». En terme d’IA, « seuls les USA et la Chine » avaient « les ressources, la puissance commerciale, la réserve de talents et l’écosystème nécessaires pour diriger le monde ». Au cours de la prochaine décennie, Pékin pourrait même « dépasser les USA en tant que superpuissance mondiale pour l’IA ».
La déposition de Schmidt pointe généreusement sur la thèse de la menace chinoise. « Jamais auparavant dans le cours de ma vie » prétend-il « ai-je été plus inquiet de nous voir remplacer par un rival ou plus conscient de ce qu’une seconde place signifie pour notre économie, notre sécurité ou le futur de notre nation ». Il craignait que de telles inquiétudes ne soient pas partagées par les cercles officiels, avec le Département de Défense traitant « l’informatique comme une priorité mineure ». Là, il pouvait donner des conseils sur des leçons apprises dans les grouillantes entreprises de la Silicon Valley , où les principes ont la vie courte. Celles dédiées à la défense pouvaient « former des équipes intelligentes, mener à bien des projets difficiles, et se mettre en mouvement rapidement ». « Des missiles », fait-il valoir, devraient être construits « à la façon dont on fabrique maintenant des voitures : utiliser un atelier de conception pour développer et simuler par ordinateur »
Tout cela signifie glorifier une forme moins répressible d’IA, notamment dans ses applications militaires. Deux jours de discussions publiques virent le Vice-Président du comité Robert Work, vanter les vertus de l’IA au combat. « C’est un impératif moral d’au moins suivre cette hypothèse » affirmant que « les armements automatiques ne tireront pas de façon indiscriminée, à moins qu’on les conçoive ainsi ». Le diable est dans l’humain, comme il l’a toujours été.
D’une manière rappelant les débats relatifs au partage des armes atomiques, au sortir de la Seconde Guerre Mondiale, le comité « pousse les USA à suivre une stratégie complète en lien étroit avec nos alliés et partenaires pour l’innovation et l’adoption d’une Intelligence Artificielle, qui mette en avant les valeurs cruciales des sociétés libres et ouvertes ». Une coalition suggérée entre les puissances et les partenaires partageant les mêmes valeurs, se concentrerait sur le rôle des « technologies émergentes respectant les normes et les valeurs démocratiques » et « coordonnerait des politiques pour contrer l’utilisation néfaste de ces technologies par des régimes autoritaires ». Passé rapidement aux oubliettes, est le fait que des distinctions telles que régimes autoritaires et démocratiques ont peu de sens au bout d’un fusil.
Des changements en interne sont aussi suggérés pour voler dans les plumes de certains. Le Département d’État sort du lot quand il s’agit d’évoquer ce qui nécessite des réformes. « Il n’y a actuellement aucune direction claire pour une politique ou une diplomatie autour des technologies émergentes au sein du département d’État, ce qui limite la capacité du Département pour prendre des décisions stratégiques dans le domaine technologique ». Quand ils se tournent vers le Département d’État, les alliés et les partenaires sont dans l’embarras car ils ne savent pas vers quel fonctionnaire ils doivent se tourner, et ce pour une quantité de sujets, qu’il s’agisse d’IA, d’informatique quantique, de 5G, de biotechnologies ou de nouvelles technologies émergentes.
En général, le gouvernement US se distingue par son délabrement, se voit reprocher d’opérer « à vitesse humaine et pas à la vitesse des machines ». Il se traîne quand il s’agit du développement commercial de l’IA. Il souffre de « déficits techniques qui vont de réductions d’effectif dans le domaine digital, à des politiques d’acquisition inadéquates, une architecture en réseau insuffisante ou des faiblesses dans le traitement de données ».
La politique officielle du Pentagone, en l’état actuel des choses, est que des systèmes d’armements autonomes ou semi-autonomes devraient être « conçus pour permettre aux commandants et aux opérateurs d’exercer des niveaux de jugements humains appropriés quant au recours à la force ». En Octobre 2019, le Ministère de la Défense a adopté différents principes éthiques concernant le recours militaire à l’IA, faisant ainsi du Centre d’Intelligence Artificielle du Ministère de la défense le point focal. Cela inclut de faire en sorte que le « personnel du Département de la Défense exerce un niveau approprié de jugement et de soins, tout en demeurant responsable pour le développement, le déploiement, et le recours à des moyens informatiques ». Le principe de « traçabilité » est aussi inclus, avec le principe de contrôle humain, avec le personnel devant « posséder une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables au matériel doté d’Intelligence Artificielle ».
La Commission Nationale se paie de bonnes paroles vis à vis de tels protocoles en reconnaissant que les opérateurs, les organisations et le « peuple américain » ne soutiendraient pas des machines basées sur l’IA, qui ne seraient pas « conçues pour être prévisibles » et avec des « principes clairs » présents à l’esprit. Mais en n’étant pas contraignante moralement, la sonnette d’alarme devient un simple grincement. Le risque est « inévitable » et le fait de ne pas avoir recours à l’IA « pour résoudre de véritables défis de Sécurité Nationale risque de mettre les USA en position de faiblesse ». Spécialement face à la Chine.
Traduit par Michel, relu par Wayan, pour le Saker Francophone