DefTech

Armes autonomes : la guerre du futur est déjà là !

La confiance de l’homme dans la machine

Depuis dix ans, l’IA a permis de développer des systèmes capables d’aider les chercheurs dans les domaines de la santé, de la linguistique ou de la littérature. Mais les débats autour des dangers liés à notre dépendance aux ordinateurs et aux systèmes font rage.

Les puissants groupes privés tels Google, Tesla, Amazon ou Apple dépensent des milliards de dollars dans le développement de ces technologies. Mais, en mars 2021, Google, Amazon et Microsoft ont publié un rapport sur les impacts que peut avoir l’IA sur la sécurité nationale. Ce document, commandé par le Congrès, demande aux États-Unis d’interdire les armes autonomes, y compris celles déjà intégrées dans l’arsenal américain.

Mais, dans d’autres pays, l’IA est par exemple utilisée pour la reconnaissance faciale et a déjà été intégrée dans l’arsenal militaire. En 2010, la division défense du géant de la tech sud-coréen, Samsung, a développé un canon autonome qui utilise la reconnaissance par image pour repérer et éliminer des cibles humaines. Israël a développé ce même type d’armes pour la surveillance de sa frontière avec la bande de Gaza.

Il est possible de remonter plus loin dans le temps pour comprendre que la quête d’armes autonomes capables d’agir très rapidement a toujours motivé la recherche dans le secteur de la défense. Ainsi, durant la guerre froide, Soviétiques et Américains ont développé des systèmes de missiles capables de détecter une attaque ennemie et d’y répondre automatiquement. Plus près de nous, en 2003, durant la guerre en Irak, un avion de chasse britannique a été pris pour cible par un missile américain Patriot, car le système l’avait ciblé comme un missile ennemi. L’équipe chargée d’ordonner le tir a réagi à l’alerte lancée par le système.

Deux semaines plus tard, un pilote de chasse américain a lui aussi été abattu par un tir décidé par le système. La batterie de Patriot a par la suite été désactivée pour le reste de la guerre.

Les armes comme les Patriot impliquent des ordinateurs qui font correspondre des signatures radars avec des bases de données d’avions ou de missiles. Une fois l’engin identifié, le système décide s’il doit le détruire ou non. En règle générale, le personnel humain décide en dernier ressort, mais les experts expliquent que le stress des combats et la tendance à faire confiance aux machines brouillent souvent la ligne qui sépare le contrôle de l’humain et celui de la machine.

Daan Kayser, expert en armes autonomes au sein de l’organisation néerlandaise pour la paix PAX, s’interroge : « Nous faisons souvent confiance aux systèmes des ordinateurs ; si un ordinateur dit “Je vous conseille de faire ceci”, nous suivons son conseil. De ce fait, dans quelle mesure l’humain est-il encore impliqué dans la prise de décision ? »

Cette question hante l’armée américaine qui travaille d’arrache-pied sur les armes autonomes tout en soutenant qu’aucune machine ne se verra confier la décision de tuer.

La part d’autonomie est de plus en plus grande

Les Britanniques et les Américains développent des programmes d’essaims de drones capables d’opérer en groupe grâce à l’IA. Les essaims, lancés à partir d’avions ou de navires, doivent saturer les défenses ennemies avant une invasion.

L’armée américaine travaille également sur des simulateurs de vols avec de l’IA et du deep learning. Les algorithmes ont démontré qu’ils étaient capables de gérer des dogfights comme des pilotes expérimentés. Les travaux sur l’IA militaire sont tellement avancés qu’il devient difficile d’évaluer la part d’autonomie de la machine et celle de contrôle de l’humain.

La part d’autonomie des systèmes d’armement est de plus en plus grande. Un missile sera bientôt capable non plus de chasser une cible, mais de repérer plusieurs cibles et de choisir la plus pertinente.

C’est la quête de rapidité sur le champ de bataille qui pousse inévitablement les armées à confier plus de tâches et de décisions aux machines. Il n’est dès lors pas impossible d’imaginer un conflit dans lequel des algorithmes adverses agiront en fonction de leur opposant beaucoup plus rapidement que l’humain, dépassé par la vitesse des attaques.

C’est bien le spectre « skynet » qui se dessine avec des guerres si rapides que l’homme ne pourra plus rien contrôler. Compte tenu des développements technologiques dans ce domaine qui ont cours un peu partout dans le monde aujourd’hui, cette idée est tout à fait envisageable.

<strong>Le Special Operations Command (SOCOM) prépare la bataille omnidomaine</strong>
Le chief data officer du SOCOM américain, le major Kenney, regarde déjà au-delà des opérations dites multidomaines (terre, air, mer, espace, cyber) afin de gérer au mieux le déluge de données et d’informations.

Le département de la Défense développe un vaste réseau d’Internet des objets qui connectera et préparera les plateformes de services aux opérations multidomaines dans les airs, sur terre, en mer et dans le cyberespace. Le Joint all-domain command and control (JADC2) devient alors le meilleur moyen de relier les capteurs et tireurs des forces armées sur le champ de bataille.

Mais, pour le major Kenney, le multidomaine ne suffit plus face aux informations qui arrivent de toutes parts. Dans les dix prochaines années, les informations créées seront supérieures à tout ce qui a pu être produit dans l’histoire. Dans une perspective omnidomaine, le commandement souhaite développer des procédés analytiques et algorithmiques capables de transformer les données en informations utilisables. L’intelligence artificielle jouera un grand rôle dans ce projet. Le major Kenney indique : « Il se passe beaucoup de choses au département de la Défense, dans l’industrie ; mais, pour nous, la question centrale est “comment cela valorise-t-il nos combattants ?” »

Légende de l’image en première page : Jusqu’à quel point l’homme peut-il faire confiance à la machine ? En 2003, un pilote britannique a été abattu au-dessus de l’Irak par un Patriot américain. Le système l’avait pris pour un missile ennemi. © Lockeed Martin

Avatar

Boris Laurent

Spécialiste des questions de Défense, coordinateur éditorial du magazine DefTech.