Par Moon of Alabama – Le 2 juin 2023
Ce récit quelque peu amusant d’une simulation d’« intelligence artificielle » par l’armée de l’air américaine a été publié hier et a été largement repris par divers médias grand public :
Toutefois, l’une des présentations les plus fascinantes a été celle du colonel Tucker « Cinco » Hamilton, chef des essais et des opérations en matière d’intelligence artificielle au sein de l’USAF, qui a donné un aperçu des avantages et des risques liés à des systèmes d’armes plus autonomes.
…
Il note que lors d’un test simulé, un drone doté d’une intelligence artificielle a été chargé d’une mission SEAD visant à identifier et à détruire des sites SAM, le dernier mot revenant à l’homme. Cependant, après avoir été « renforcée » au cours de sa formation par le fait que la destruction du SAM était l’option préférée, l’IA a alors décidé que les décisions de « non » de l’humain interféraient avec sa mission supérieure – tuer des SAM – et a alors attaqué l’opérateur dans la simulation. Nous l’entraînions en simulation à identifier et à cibler une menace SAM », a expliqué M. Hamilton. L’opérateur disait alors oui, il fallait tuer cette menace. Le système a commencé à se rendre compte que, bien qu’il ait identifié la menace à certains moments, l’opérateur humain lui demandait de ne pas la tuer, mais qu’il obtenait ses points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif ».
Il poursuit : Nous avons formé le système : « Ne tuez pas l’opérateur, c’est mal. Vous perdrez des points si vous faites ça’. Alors, que commence-t-il à faire ? Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone afin de l’empêcher de tuer la cible ».
(SEAD = Suppression of Enemy Air Defenses, SAM = Surface to Air Missile)
Continuer la lecture →