Il est évident que l’intelligence artificielle sera au coeur des champs de bataille futurs : pour la collecte d’informations, le calcul de données, leur diffusion et la mise en collaboration entre soldats. Surtout, l’IA devrait donner naissance à des systèmes (véritablement) autonomes qui, accompagnés ou non par des hommes, pourront être en mesure de les appuyer sous le feu, voire de débusquer l’ennemi et de le mettre hors d’état de nuire si on les équipait de l’armement nécessaire à cet effet. Ces perspectives intéressent toutes les puissances militaires, comme la Chine et la Russie qui y placent de grandes ambitions et, bien que les États-Unis refusent de parler d’une course à l’armement dans ce domaine, évitant les foudres de leurs détracteurs et des opposants à l’IA militaire (dans la mesure où elle servirait à développer des « robots tueurs »), le Pentagone ne compte pas se faire distancer par ses « adversaires ».

Robot mule LS3 de Boston Dynamics dans une zone d’entrainement des Marines à Hawai le 12 juillet 2014 ( crédits : Sgt. Sarah Dietz)
À l’occasion d’une conférence du
Future Of War le 9 avril dernier, Michael D. Griffin, sous-secrétaire à la défense pour la recherche et l’ingénierie, est intervenu sur de l’implication l’intelligence artificielle dans l’avenir de la guerre. Pour l’homme du Pentagone, si la guerre conventionnelle reste une partie intégrante de la défense nationale, il y a de la place pour étendre la stratégie de défense, et selon lui l’ajout d’intelligence artificielle à cette stratégie est vital. «
Nous ne pouvons pas perdre de vue le fait qu’il existe de nombreuses dimensions de la sécurité nationale », a-t-il insisté. L’IA «
c’est une discipline que nous devons ajouter » car «
dans une société avancée, le nombre de façons différentes d’être vulnérables augmente considérablement (…)
nous devons veiller à ce que nous ne puissions pas être surpris. »
Dans le domaine de l’IA, les États-Unis ne sont pas les plus mal lotis, mais pour Griffin ils seraient presque en retard, et comme dans les autres domaines, la supériorité américaine nécessite de conserver une longueur d’avance suffisante sur les adversaires : «
Il pourrait y avoir une course aux armes d’intelligence artificielle, mais nous ne sommes pas encore dedans » a-t-il déploré. Selon lui «
nous n’avons pas un adulte en face de nous; nous avons un bébé« , et c’est un bébé prometteur qu’il ne faut abandonner ni aux Chinois, ni aux Russes. «
Je pense que nos adversaires – et ils sont nos adversaires – comprennent très bien l’utilité future possible de l’apprentissage automatique, et je pense qu’il est temps que nous le fassions aussi. »
L’augmentation des investissements dans les technologies émergentes est préconisée par la nouvelle stratégie de défense nationale d’outre-Atlantique, et comme cette dernière, Griffin appelle également à réformer les processus d’acquisition au sein du Mindef américain, qu’il a lui qualifiés de périmés. Si au moment de la conception du système actuel, l’avantage technologique des États-Unis était largement incontesté, permettant au Pentagone de s’engager dans des longs processus d’acquisition, pour Griffin ces pratiques désavantageraient aujourd’hui sérieusement le pays. Il est vrai que la Chine a récemment misé sur l’intelligence artificielle, son gouvernement ayant publié une stratégie nationale qui prévoit de faire du pays «
le premier centre d’innovation de l’IA au monde » d’ici 2030.
Jusqu’ici,
selon une brève du MIT, le gouvernement américain aurait mis du temps à adopter la technologie, mais la législation proposée récemment pourrait aider à changer la donne, celle-ci mettant de surcroît l’accent sur les applications militaires. Par ailleurs, la DARPA a lancé un programme appelé Collecte et surveillance via la planification de scénarios de situation active (COMPASS), qui vise à développer un logiciel pour évaluer la réponse d’un adversaire, discerner ses intentions – dans quel timing et avec quels moyens utilisables – et fournir les informations aux commandants. Cette technologie pourrait aider les militaires, de l’identification d’acteurs spécifiques sur le terrain, jusqu’à l’anticipation de tactiques adverses et la recommandation de réponses.
Selon Fred Kennedy, directeur du bureau de technologie tactique de la DARPA, la prochaine barrière déterminante à franchir – et elle pourrait peut-être rassurer les anti-robots – serait celle de la confiance. « Le système doit nous dire ce qu’il pense », a-t-il déclaré. « C’est là que la confiance se construit. C’est ainsi que nous commençons à les utiliser et à les comprendre. » Le programme d’Intelligence Artificielle Explicable de la DARPA chercherait justement à enseigner cette capacité à l’IA. D’après les journalistes américains qui nous rapportent les propos du Dr. Kennedy, le programme envisage des systèmes qui auront la capacité d’expliquer la logique derrière leurs décisions, de caractériser leurs forces et leurs faiblesses et de décrire comment ils se comporteront ensuite, faisant alors progresser la collaboration homme-robot.
Surtout, la technologie IA appliquée à des plateformes militaires devra être au moins aussi intelligente que ses ennemis humains : « les choses intelligentes devront constamment penser à un adversaire intelligent qui ruse pour les tromper et les vaincre. Sans cette intelligence contradictoire, ces choses ne survivront pas assez longtemps pour être utiles. » C’est en tout cas ce que préconise Alexander Kott du U.S. Army Research Laboratory dans son dernier article consacré aux défis de « l’autonomie intelligente » sur les champs de bataille à haute-intensité. Pour le chercheur, l’état actuel de l’IA l’empêche de « fonctionner intelligemment dans de tels environnements et avec de telles exigences. En particulier, l’apprentissage automatique doit faire l’objet d’avancées majeures afin de devenir pertinent sur le vrai champ de bataille. »
Dans son développement, Kott en reste à l’utilisation de systèmes autonomes soutenus par des groupes de soldats mais, en plus de la question éthique des « robots tueurs », l’idée d’une généralisation de la technologie IA sur les champs de bataille nous amène à réfléchir sur l’avenir humain des guerres : si aucun de ses enfants ne meurt, quand un pays s’arrêtera-t-il de mener une guerre?
L’armée américaine est bien au fait de ce gain de sécurité pour ses hommes, et l’IA était évidemment au rendez-vous de la journée de rencontres ce mardi 10 autour des Ground Robotics Capabilities américaines : elle « change aussi la façon dont nous regardons le champ de bataille », a déclaré à cette occasion le lieutenant-colonel Kevin Reilly du Marinefighter Lab des Marines. Comme l’ont clairement expliqué les experts américains, les drones et autres systèmes « autonomes » donnent non seulement des yeux aux troupes sur une zone dangereuse, mais ils permettent également d’ajouter des capteurs pour gagner encore en image du champ de bataille. Ils permettent en fait aux soldats de réaliser où se trouvent toutes les menaces avant de s’engager. Pour nos alliés américains, il s’agit d’associer drones aériens et robots terrestres de manière innovante : par exemple un drone aérien transportant un drone terrestre sur les points clés le long d’un champ de bataille pour recueillir des informations, évitant aux soldats de le faire, et donc de s’exposer au danger.
Un autre défi soulevé par les spécialistes américains, est celui de l’énorme quantité d’énergie demandée par de telles technologies sur un champ de bataille lorsqu’elles captent des données, les calculent puis les transmettent, et qu’il faut les conserver. Également, l’US Army a lancé l’année dernière son propre programme, DCIST (« technologies et systèmes intelligents distribués et collaboratifs »), pour répondre aux besoins d’un combat collaboratif engageant de multiples soldats et de multiples intelligences artificielles. Enfin, il faut prendre en compte que l’ennemi disposera de capacités d’interférer avec les communications, et donc faire en sorte que les systèmes autonomes et la collaboration puissent fonctionner même avec une connectivité limitée et intermittente.
L’US Air Force s’est elle aussi faite l’écho du besoin en matière d’IA. Ce lundi, le vice-chef d’état-major de l’armée de l’air, le général Stephen Wilson a déclaré que le moment était venu d’accumuler des données et de « laisser les ordinateurs faire ce à quoi les ordinateurs sont bons, puis laisser les humains faire ce à quoi les humains sont doués. » Wilson a pris l’exemple des véhicules Tesla d’Elon Musk: lorsqu’une Tesla atteint un nid-de-poule, elle prend en compte l’emplacement du nid-de-poule et de sa taille. Les données sont ensuite transférées sur le réseau Tesla pour éviter que d’autres voitures électriques empruntent la même route. « Si je peux faire ça, est-ce que je peux faire la même chose dans les airs, puis-je connecter tous les véhicules aériens pour qu’ils transmettent des informations pertinentes sur les adversaires de la menace et qu’ils construisent un système d’apprentissage opérationnel? » a-t-il demandé avant d’ajouter : « Puis-je faire cela avec de l’espace? Puis-je connecter l’espace, à l’air, à la terre, à la surface, à la subsurface? »
Avec les prochaines avancées américaines dans le domaine de l’IA militaire nous risquons de voir apparaître de nombreuses contestations. Qu’elles proviennent d’industriels ou d’acteurs publics questionnant l’éthique de son développement à des fins militaires voire directement contestant le droit aux « robots tueurs », elles pourraient ralentir les études, laissant alors une chance aux Chinois et aux Russes. Les employés de Google ont récemment signé une lettre ouverte de protestation à destination de leur PDG après que l’implication de l’entreprise dans un programme de drones américain ait été révélée. Aussi, une cinquantaine de chercheurs s’opposent aujourd’hui publiquement au projet de recherche d’IA militaire entre l’Institut coréen de science et de technologie (KAIST) et l’industriel de défense Hanwha Systems.
D’un autre côté, les acteurs privés pourraient ne pas rester très longtemps insensibles aux charmes de l’IA, surtout que l’on imagine aisément les contrats lucratifs sur lesquels pourraient déboucher les larges champs d’application de l’IA militaire.