top of page

Intelligence artificielle : une rupture dans « l’art de la guerre »

Dernière mise à jour : 27 sept. 2020



« Le développement de l'intelligence artificielle est désormais un lieu de compétition stratégique, une course à la puissance technologique, économique mais aussi militaire », expliquait début avril 2019 dans son discours à Saclay Florence Parly, ministre des armées, comptant faire de l’intelligence artificielle « une priorité de la défense nationale ».


Ce fut en septembre 2019, dans le cadre de l’Université d’été de la Défense, que la ministre y dévoila les travaux de son ministère en la matière, avec un rapport annonçant notamment la création d’une unité spécialement dédiée à l’intelligence artificielle au sein de l’Agence d’Innovation de la Défense (AID), s’accompagnant de la création d’un comité ministériel « destiné à se prononcer sur les questions éthiques ».


L’intelligence artificielle (IA) est un domaine scientifique cherchant à résoudre des problèmes logiques ou algorithmiques, qui comprend des techniques permettant à des machines informatisées de réaliser des tâches normalement effectuées par les humains. Alors qu’on fait généralement remonter la création de ce domaine scientifique aux années 50 et au « test de Turing », du mathématicien du même nom, qui se posait notamment comme question « une machine peut-elle penser ? », les IA se déploient aujourd’hui sur différents terrains, allant de notre quotidien (Internet) jusqu’au secteur automobile ou la domotique avec par exemple Alexa, l’assistant personnel virtuel d’Amazon. Cette technologie n’a pas manqué de s’imposer dans le domaine militaire, dont les manifestations sont multiples. Cependant, nombreux sont ceux qui pointent les limites de cette utilisation, limites techniques, mais également le risque de déshumanisation qu’elle entraîne, et celui d’une perte de contrôle, ce qui amène à se demander en quoi une IA dite « forte » (entièrement autonome), pouvant s’envisager à plus long terme, pourrait amener à bouleverser la nature même de la guerre.


Manifestations des IA dans le domaine militaire


Alors qu’une réelle compétition semble s’être ouverte sur la programmation d’IA militaires, et ce notamment entre les nations les plus dépensières dans les domaines de la recherche et du développement de technologies d'armement (Chine, Etats-Unis, Russe), Vladimir Poutine allant jusqu’à affirmer "celui qui deviendra leader dans le domaine de l'IA sera le maître du monde", les manifestations de cette technologie sur le terrain se font de plus en plus nombreuses.


On peut évoquer tout d’abord les équipements de repérage automatique, tels que les drones qui, sous différentes formes (avions, hélicoptères sans équipe de pilotage, ou encore sous forme d’insecte minuscule) sont capables d’identifier une cible, en observant depuis le ciel ce qui peut se passer sur le terrain, certains étant même capables de détruire ce qu’ils peuvent considérer comme une menace. Il existe également des systèmes de défense automatique. On peut citer les véhicules sans pilote, adaptés à faire face à tout type de situation, munis de mitrailleuses et disposant d’un revêtement blindé qui leur permet de résister aux attaques extérieures (Crusher). Ces techniques permettent notamment d’utiliser ces robots en première ligne, afin d’éviter d’exposer inutilement les troupes.


La France n’est pas en reste dans ce domaine. Selon le rapport présenté par la ministre des armées, l’intelligence artificielle devrait affecter tous les aspects du ministère, de son administration à la gestion de ses données internes. Avec une liste des “axes d’efforts prioritaires”, on y retrouve l’aide à la décision, le renseignement, le “combat collaboratif”, ou encore la cyberdéfense.


L’IA apparaît de ce fait comme un enjeu de défense prioritaire pour les puissances militaires du XXIème siècle, et apparaît ainsi comme la voie principale de la supériorité tactique. Or il s’avère que cette technologie présente certaines limites, dues à certains risques externes.


Risques d’indépendance industrielle et de vulnérabilité opérationnelle


Concernant une nouvelle technologie comme l’intelligence artificielle, la première des vulnérabilités tient à la disponibilité industrielle. En effet les acteurs de l’intelligence artificielle ne sont pas ou peu, du moins en France, liés au secteur de la défense. De nombreux acteurs sont réticents à s’engager dans des applications à destination des Armées à l’instar de nombreuses start-up innovantes. Cela mène à avoir recours à des solutions étrangères extra-européennes, ce qui pourrait constituer des risques sur la disponibilité des IA proposées sur le marché. Une autre question se pose notamment quant à la gestion des données d’entraînement et la mise à jour des algorithmes de traitement, dans la mesure où l’armée de Terre ne disposerait pas de capacités dédiées à ces fonctions, qui seraient donc transférées aux industriels, posant des questions sur la sécurité des données.


Un risque majeur est également la prolifération et l’utilisation de ces techniques par des acteurs hostiles non respectueux du droit de la guerre, étatiques ou non-étatiques (groupes terroristes par exemple), et le risque de piratage y étant lié, et ce par ces mêmes acteurs hostiles.


Concernant les IA avec des systèmes robotisés de type drones, il apparaît nécessaire de prendre en compte la possibilité de voir ces dernières agir dans des environnements où l’armée de Terre ne dispose pas de la suprématie électromagnétique, que ce soit par action de l’ennemi (guerre électronique), ou par la nature de l’environnement. Dans ce cas se pose notamment la question de la pertinence de systèmes automatisés, incapables de communiquer avec leur base arrière, alors même que ces systèmes sont conçus pour éviter d’exposer directement les êtres humains à des risques importants. C’est en ce sens que l’autonomisation toujours plus grande de cette technologie sur le terrain a été pensée, source de nombreux débats notamment sur les menaces y étant liées.


Menaces liées au risque d’une autonomisation croissante à plus long terme

« Les machines qui ont le pouvoir et la discrétion de tuer sans intervention humaine sont politiquement inacceptables, moralement répugnantes », affirmait António Guterres, Secrétaire général de l'ONU, dans un message adressée aux experts en intelligence artificielle (IA) réunis à Genève en mars 2019, les invitant à poursuivre leurs travaux visant à restreindre le développement de systèmes d'armes autonomes meurtriers (LAWS), ou « robots tueurs ».


La question qui se pose derrière cette affirmation est celle du rôle du décideur, relevant les enjeux éthiques liés à l’IA. Il apparaîtrait que cette distinction entre un soutien de l’IA et une participation de cette dernière au combat soit amenée à s’estomper, dans un contexte où la position de l’homme en tant que décideur peut être de trois ordres, à savoir « dans » la boucle, dans ce cas l’homme bénéficie du travail de l’IA mais conserve un contrôle entier sur elle, « sur » la boucle, supervisant le travail de l’IA, prêt à agir si une mauvaise décision intervenait, puis « hors » de la boucle, laissant les systèmes travailler seuls.


Cette autonomisation poussée conduit à de nombreuses inquiétudes, notamment pour les robots dotés de capacités offensives et assez autonomes pour prendre seuls la décision d’ouvrir le feu, car elle laisse entendre la délégation de la capacité de faire le choix de tuer ou de blesser quelqu’un à un « algorithme ». Certains défendent l’idée que se positionner hors de la boucle relève tout de même d’une décision humaine ; la notion d’autonomie peut donc apparaître comme relative, une IA ne décidant pas par elle-même de s’engager.


Sur ces matières encore très prospectives, les cultures stratégiques et opérationnelles de chaque Etat pourraient jouer un rôle important, l'US Air Force prévoyant qu'en 2047, des drones de combat équipés d'une intelligence artificielle super-développée pourront voler au-dessus d'une cible et déterminer de manière autonome s'il faut ou non tirer. Le risque d’une telle autonomisation reste donc celui de l’« Hyperwar » du général américain John Allen, où le processus humain de décision aurait disparu.


Alors que ces “robots tueurs” suscitent une opposition depuis quelques années de la part de nombreux chercheurs en IA et personnalités comme le physicien Stephen Hawking, l’entrepreneur Elon Musk, ou encore Steve Wozniak, cofondateur d’Apple, certains transhumanistes affirment que dans les prochaines décennies, la forme de coopération-humain tendra à évoluer, menant à la « Singularité », un point de convergence où la machine dépasserait l’homme.


Ünzile Yilmaz

42 vues0 commentaire

Posts récents

Voir tout
bottom of page