Des robots de Rossum à l’intelligence artificielle


Par Leonid Savin − Le 1er février 2021 − Source Oriental Review

Terminator

Le 25 janvier 2021 a marqué le centenaire de la première du texte intitulé R.U.R. (Rossum Universal Robots) de l’écrivain tchèque de science-fiction Karel Čapek. Ce court ouvrage anticipait les livres ultérieurs sur le sujet, ainsi que les films cyberpunk et post-apocalyptiques comme The Terminator et Alien : Covenant. Les robots universels de Rossum ont été conçus comme des aides humains, mais au bout d’un certain temps, ils se rebellent et détruisent la race humaine, à l’exception d’un ouvrier d’usine, dont ils ont besoin pour recréer leur propre espèce.

Le mot « robot » est rapidement devenu courant et a été appliqué à des mécanismes dotés d’un ensemble limité de fonctions programmables nécessitant des diagnostics, de l’entretien et des réparations. Plus récemment, cependant, surtout après le développement des ordinateurs et des cyber-technologies, des discussions sont déjà en cours pour savoir si les machines peuvent penser et prendre des décisions sur un pied d’égalité avec les personnes.

Nulle part ailleurs les dernières réalisations en matière de robotique et d’informatisation ne sont plus demandées que dans l’armée, notamment aux États-Unis, où des centres spéciaux ont été créés pour développer des programmes, des applications et du matériel spécifiques. De nombreux laboratoires de l’armée de terre, du corps des Marines, de la marine et de l’armée de l’air américains, avec l’aide d’entrepreneurs et des principales institutions du pays, mènent à leur terme les prototypes de modèles avancés – toute cette technologie est destinée à servir les nouvelles guerres que Washington prévoit de déclencher dans le futur.

Les progrès récents dans ce domaine sont révélateurs.

Le navire sans équipage Ghost Fleet Overlord a récemment parcouru avec succès 4 700 miles nautiques et a participé à l’exercice Dawn Blitz, où il a fonctionné de manière autonome pendant presque toute la durée de l’opération.

Ceux qui s’inquiètent de la puissance croissante de la Chine proposent d’utiliser de tels systèmes pour toute future relation avec l’APL : utilisation de drones suicide sous-marins pour attaquer les sous-marins chinois, par exemple. Les États-Unis parlent déjà de robots de combat sous-marins et de surface qui seraient en cours de développement par l’armée chinoise et que les Chinois appellent une « Grande Muraille sous-marine« . C’est pourquoi ils proposent d’établir la parité avec les Chinois ou de les devancer d’une manière ou d’une autre.

Les efforts de la Chine dans ce domaine montrent que la disponibilité de nouveaux types d’armes ne donne aux États-Unis aucune garantie que ces systèmes ne seront pas mis en service par d’autres pays. Par exemple, l’apparition de drones de combat dans un certain nombre de pays a obligé les États-Unis à développer des méthodes et des stratégies pour contrer les drones.

Ainsi, en janvier 2021, le ministère américain de la défense a publié une stratégie de lutte contre les petits systèmes d’avions sans pilote car il s’inquiète de l’évolution de la nature de la guerre et de la concurrence croissante, deux éléments qui remettent en cause la supériorité américaine.

Le lieutenant général Michael Groen, directeur du Joint Artificial Intelligence Center du ministère américain de la défense, parle de la nécessité d’accélérer la mise en œuvre des programmes d’intelligence artificielle à usage militaire. Selon Groen : « Nous pourrions bientôt nous retrouver dans un espace de combat défini par des prises de décision fondées sur des données, une action intégrée et un rythme. Si nous faisons les efforts nécessaires pour mettre en œuvre l’intelligence artificielle aujourd’hui, nous nous retrouverons à l’avenir à opérer avec une efficacité et une efficience sans précédent ».

Le Centre Commun d’Intelligence Artificielle du Pentagone, qui a été créé en 2018, est aujourd’hui l’une des principales institutions militaires à développer des « logiciels intelligents » pour les futurs systèmes d’armes, de communication et de commandement.

L’intelligence artificielle est aujourd’hui le sujet le plus discuté dans la communauté de recherche de la défense américaine. C’est une ressource qui peut aider à atteindre certains objectifs, comme permettre à des drones de voler sans surveillance, de recueillir des renseignements et d’identifier des cibles grâce à une analyse rapide et complète.

On suppose que le développement de l’intelligence artificielle entraînera une concurrence féroce, puisque l’IA elle-même se distingue de nombreuses technologies passées par sa tendance naturelle au monopole. Cette tendance au monopole exacerbera les inégalités nationales et internationales. Le cabinet d’audit PricewaterhouseCoopers prévoit que « près de 16 000 milliards de dollars de croissance du PIB pourraient être générés par l’IA d’ici 2030 », dont 70 % pour les seuls États-Unis et la Chine. Si la rivalité est le cours naturel des choses, alors pour les entreprises qui utilisent l’intelligence artificielle à des fins militaires ou des technologies à double usage, l’envisager de cette manière semblera tout à fait logique. Ce sera un nouveau type de course à l’armement.

Sur le plan éthique, cependant, les systèmes militaires d’intelligence artificielle pourraient être impliqués dans la prise de décisions vitales ou l’imposition de peines de mort. Ils comprennent à la fois des systèmes d’armes létales autonomes qui peuvent sélectionner et engager des cibles sans intervention humaine et des programmes d’aide à la décision. Il y a des gens qui plaident activement pour l’inclusion de machines dans un processus décisionnel complexe. Le scientifique américain Ronald Arkin, par exemple, affirme que non seulement ces systèmes ont souvent une meilleure connaissance de la situation, mais qu’ils ne sont pas non plus motivés par l’instinct de conservation, la peur, la colère, la vengeance ou une loyauté mal placée, ce qui laisse entendre que, pour cette raison, les robots seront moins susceptibles de violer les accords de paix que les personnes.

Certains pensent également que les fonctions d’intelligence artificielle peuvent transformer la relation entre les niveaux tactique, opérationnel et stratégique de la guerre. L’autonomie et la mise en réseau, ainsi que d’autres technologies, notamment les nanotechnologies, la furtivité et la biogénétique, offriront des capacités de combat tactique sophistiquées sur terre, dans les airs et sur les mers. Par exemple, des bancs de véhicules sous-marins autonomes concentrés en des endroits précis dans l’océan pourraient compliquer les actions secrètes des sous-marins qui assurent actuellement une frappe de représailles garantie de la part des puissances nucléaires. Par conséquent, d’autres plateformes tactiques pourraient également avoir un impact stratégique.

L’amélioration de la manœuvrabilité est également liée à l’intelligence artificielle. Celle-ci comprend entre autres des logiciels et des capteurs qui permettent aux robots d’être autonomes dans des endroits dangereux. C’est l’une des forces motrices de l’utilisation de systèmes autonomes par les militaires. L’armée américaine fonde de grands espoirs sur l’autonomie des machines car elle pourrait offrir une plus grande flexibilité aux personnes qui commandent et combattent aux côtés des robots. Les développeurs américains s’attendent à passer de 50 soldats soutenant un drone, un véhicule terrestre sans pilote ou un robot aquatique, comme c’est le cas actuellement, à un paradigme où une personne soutient 50 robots.

Mais l’intelligence artificielle pourrait également créer de sérieux problèmes. L’intelligence artificielle militaire pourrait potentiellement accélérer le combat au point où les actions des machines dépassent les capacités mentales et physiques de ceux qui prennent les décisions dans les postes de commandement d’une guerre future. Par conséquent, la technologie dépassera la stratégie, et les erreurs humaines et les erreurs des machines vont très probablement fusionner – avec des conséquences imprévisibles et involontaires.

Une étude de la RAND Corporation, qui examine comment les machines pensantes influencent la dissuasion en matière d’affrontement militaire, met en évidence les graves problèmes qui pourraient surgir si l’intelligence artificielle était utilisée sur le théâtre des opérations. Sur la base des résultats des jeux de guerre réalisés, il a été démontré que les actions entreprises par une partie, que les deux joueurs percevaient comme une désescalade, étaient immédiatement perçues par l’intelligence artificielle comme une menace. Lorsqu’un joueur humain retirait ses forces afin de désamorcer une situation, les machines étaient plus susceptibles de percevoir cela comme un avantage tactique qu’il fallait consolider. Et lorsqu’un joueur humain faisait avancer ses forces avec une démonstration de détermination évidente (mais non hostile), les machines avaient tendance à percevoir cela comme une menace imminente et à prendre les mesures appropriées. Le rapport a constaté que les gens devaient faire face à la confusion non seulement sur ce que pensait leur ennemi, mais aussi sur la perception de l’intelligence artificielle de leur ennemi. Les joueurs devaient également faire face à la manière dont leur propre intelligence artificielle pouvait mal interpréter les intentions humaines, tant amicales qu’hostiles.

En d’autres termes, l’idée contenue dans la pièce de Karel Čapek sur les robots est toujours d’actualité : il est impossible de prévoir le comportement de l’intelligence artificielle. Et si les robots « intelligents » ont un usage militaire, ils pourraient aussi devenir un danger pour leurs propriétaires. Même aux États-Unis, il y a des sceptiques dans l’armée qui sont dans le camp des traditionalistes qui pensent que de telles innovations venant des utopistes de la Silicon Valley seront préjudiciables à l’art de gouverner américain.

Leonid Savin

Traduit par Hervé, relu par Wayan pour le Saker Francophone

   Envoyer l'article en PDF