INTELLIGENCE ARTIFICIELLE : VERS LA FIN DES ÉTATS-MAJORS ?

Découvrez cet article d’Elodie Andriot, publié par Areion 24 le 10 avril 2020

Le recours croissant aux technologies, le foisonnement des données, la prééminence de l’approche globale et la prédilection pour les coalitions tendent à rendre plus complexes les engagements militaires. Face à ces nouveaux défis, les États-Majors (EM) des niveaux les plus élevés en opération ont évolué pour intégrer davantage de fonctions, les conduisant à une hypertrophie et à une complexification de leur fonctionnement. Cette adaptation induit de nouvelles fragilités : une empreinte et une sédentarité accrues des postes de commandement les rendant plus vulnérables – surtout face à une menace symétrique –, une surcharge informationnelle source de troubles psycho-­sociaux et de baisse de performance, une inertie, voire une paralysie d’EM « auto-­intoxiqués »…

L’Intelligence Artificielle (IA) pourrait-elle, en évitant ces écueils, être la panacée du chef militaire en opération ? Serait-elle synonyme d’extinction programmée des états-majors ? L’état actuel de la technologie ne permet pas encore la création d’une IA « forte », omnisciente, autonome et polyvalente, pouvant supplanter la totalité des capacités cognitives humaines. Il n’est donc pas sérieusement envisageable que l’IA puisse, à brève échéance, se substituer à un EM en opération. En revanche, au terme d’une maturation suffisante, elle pourrait devenir un véritable atout et même minorer les vulnérabilités précédemment citées. Pour ce faire, il convient d’analyser les champs d’action possibles de l’IA dans l’aide à la décision opérationnelle et d’en maîtriser les risques et enjeux.

Qu’est-ce que l’IA ?

Le terme « intelligence artificielle » est employé pour la première fois à la conférence de Dartmouth en 1956. Dès lors, deux courants de pensée font leur apparition : l’IA symbolique tournée vers la modélisation de la connaissance (intelligence par raisonnement et logique), et l’IA connexionniste tournée vers la modélisation du cerveau humain (intelligence par apprentissage). L’IA symbolique a connu un fort développement durant les précédentes décennies. Elle est aujourd’hui dominée par l’IA connexionniste qui connaît un véritable essor depuis une dizaine d’années. Trois facteurs fondamentaux expliquent cette récente montée en puissance : l’élaboration d’algorithmes novateurs permettant notamment l’apprentissage automatique de la machine (machine learning), l’augmentation exponentielle de la puissance de calcul des ordinateurs (en particulier de Graphics Processing Unit), et la production effrénée de données numériques. Bien qu’il n’existe pas de consensus autour de la définition de l’IA connexionniste, celle-ci peut être considérée comme « un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises (1) ».

Si l’imaginaire collectif, nourri des films de science-­fiction, représente spontanément l’IA comme un robot autonome, il occulte sa caractéristique fondamentale : son action dans les champs immatériels. L’IA s’applique avant tout au traitement d’informations de nature parfois hétérogène, pour lequel une méthode simple ne donne pas de résultats satisfaisants. En fonction des algorithmes utilisés, elle peut elle-­même déterminer les critères de comparaison et d’analyse des données. Elle implique des choix, sans certitude, entre plusieurs possibilités. Elle permet de modéliser des problèmes complexes, de valoriser des données, de mettre en évidence des corrélations ou au contraire des signaux faibles, d’effectuer des prédictions, de proposer des solutions… À moyen terme, il paraît plus vraisemblable d’envisager l’apparition d’une myriade d’IA « faibles » interconnectées, chacune limitée à une tâche spécifique, plutôt que l’émergence d’une IA « forte » supérieure à l’homme.

L’IA dans les armées : une nécessité

Conscient de la portée stratégique de l’IA, le président russe, Vladimir Poutine, déclarait, le 1er septembre 2017 à l’occasion de la Journée du savoir, que celui qui deviendra le leader dans ce domaine sera le maître du monde. En réponse à ce pronostic et face aux géants de la discipline que sont les États-Unis et la Chine, la France souhaite « une réponse coordonnée au niveau européen (2) » tout en garantissant son indépendance nationale. À ce titre, l’État se veut exemplaire et définit quatre secteurs prioritaires, parmi lesquels la défense-­sécurité. « Dans les prochaines années, l’utilisation de l’intelligence artificielle sera une nécessité pour assurer les missions de sécurité, conserver l’ascendant face à nos adversaires potentiels, tenir notre rang par rapport aux alliés (aussi bien au sein de coalitions que dans une perspective d’export) et maintenir un niveau de qualité élevé concernant les services dispensés à l’ensemble des personnels des ministères. (3) »

Dans certaines circonstances, la numérisation des armées sature déjà la chaîne de Commandement et de Contrôle (C2) de données toujours plus nombreuses et variées. À la confluence de la contrainte et de l’impératif, l’IA accompagnerait efficacement la transformation numérique, allégeant la charge cognitive du militaire et lui permettant de se focaliser sur sa mission. Cette perspective est particulièrement prégnante pour les états-­majors en opération.

La voie vers la supériorité décisionnelle ?

Ronald Howard, écrivait déjà, en 1980, « Décider, c’est ce que l’on fait lorsque l’on ne sait pas quoi faire (4) » pour expliquer le chaos qui environne la prise de décision des chefs d’entreprise. Cette appréciation prend encore tout son sens dans un engagement armé actuel. « Avec les ressources humaines disponibles, quand aujourd’hui on parvient à traiter une quantité de données qui avoisine au mieux les 20 %, à terme ce sera probablement moins de 2 %. (5) » Dans ce déluge informationnel, conserver toute sa lucidité demeure un enjeu capital pour les états-­majors en opération. Ceux-ci n’ont guère d’alternative entre, d’une part, exigence de réactivité et d’instantanéité, et, d’autre part, impossible renoncement à la domination informationnelle et à l’approche globale, toutes deux particulièrement chronophages.

Dans plusieurs conférences introductives sur l’aide à la décision en 2004, Denis Bouyssou mettait en évidence le peu de temps que peut s’accorder un dirigeant en entreprise pour réfléchir et prendre des décisions, à savoir moins de six minutes par jour. Si ces statistiques ne sont pas intégralement transposables au monde militaire, les battle rhythm et daily cycle de nos EM en opération sont, à cet égard, révélateurs : ils sont jalonnés par de multiples réunions et comptes rendus à temps. Dans le cycle OODA (Observation, Orientation, Décision, Action), l’IA utilisée comme aide à la décision opérationnelle permettrait un parcours plus rapide de cette boucle, principalement des deux premières phases. Elle semble donc la plus indiquée pour accélérer notre cycle décisionnel, maîtriser le tempo des opérations et renforcer la performance et l’agilité du C2.

L’essence de l’IA : la simplification

La simplification du quotidien est l’enjeu majeur de l’IA. Une application de gestion de l’information serait, à ce titre, particulièrement profitable. Elle assurerait le nommage, le stockage, le partage, l’archivage des données et faciliterait ainsi l’accès à l’information. Elle éviterait l’engorgement des messageries et améliorerait la transversalité des flux d’information. Exploitant le big data, l’IA pourrait être particulièrement performante dans l’exploration de données : elle collecterait les informations éparses recherchées qu’elle agrégerait en une synthèse pertinente en un temps particulièrement court. Elle inclurait des enregistrements audio et vidéo ainsi que des images qu’elle aurait préalablement analysés. La reconnaissance vocale permettrait en outre une retranscription écrite immédiate des ordres et comptes rendus. Avec de telles perspectives, il serait totalement envisageable qu’une IA rédige automatiquement des comptes rendus à temps, soumis à validation humaine. L’augmentation de la fréquence de remontées des données tactiques par les systèmes de numérisation de l’espace de bataille garantirait une production de telles synthèses en temps réel.

L’IA pourrait être un excellent outil de veille, d’alerte et de réaction immédiate, que ce soit pour le suivi tactique des opérations, la surveillance des réseaux sociaux ou du cyberespace pour contrer immédiatement les cyberattaques. Le programme CHESS (6) de la DARPA vise, en ce sens, à instaurer une meilleure collaboration entre les experts de la cybersécurité et les programmes automatisés de sécurité informatique. Dans une démarche d’évaluation, l’IA pourrait compléter régulièrement les indicateurs mesurant la performance et l’efficacité des opérations en cours. À l’issue d’une mission, elle pourrait générer automatiquement le journal de marches et opérations ainsi que les comptes rendus de fin de mission, parfois négligés faute de temps. De cette manière, l’IA contribuerait utilement à un retour d’expérience plus étayé et objectif.

Un outil bientôt incontournable dans la conception des opérations ?

L’IA serait d’une redoutable efficacité pour analyser l’environnement des opérations, en planification comme en conduite. Nourrie de l’abondance des données provenant de sources ouvertes, elle excellerait dans l’analyse systémique qui combine de multiples domaines : militaire, économique, logistique, politique, idéologique, social… Elle concourrait efficacement au ciblage large spectre, létal ou non. L’IA déterminerait, par exemple, les relais d’opinion à partir de la fréquentation de certains sites ainsi que les messages transmis et leur audience. Plus encore, elle pourrait elle-­même pratiquer de l’influence dans le cyberespace.

Dans le domaine du renseignement, les données issues de différentes sources pourraient être recoupées automatiquement et instantanément, améliorant la connaissance de l’adversaire et le suivi en temps réel de son évolution. La reconnaissance vocale et la traduction instantanée y apporteraient une réelle plus-­value, tout en s’affranchissant de certains interprètes locaux. Afin de mieux cerner la menace hybride, la DARPA a lancé le programme COMPASS (7), pilier du Multi-Domain Battle. Ce programme incorpore de l’IA et vise à réduire l’incertitude sur l’ennemi, en discernant ses intentions, ses objectifs, ses rouages, en anticipant ses actions et en recommandant les réponses les plus appropriées.

La reconnaissance d’images et l’analyse comportementale, toutes deux appliquées à des infrastructures, à des équipements ou à des groupes humains, permettraient de détecter des activités particulières qu’un opérateur pourrait ne pas avoir décelées par manque de concentration ou par manque de temps pour visionner toute une succession d’images ou de vidéos. En 2017, l’université du Missouri a mené une expérience sur l’analyse d’images satellitaires afin d’identifier des sites de lancement de missiles sol-air en Chine. Des algorithmes d’IA ont été entraînés avec une banque de 893 000 images puis ont été testés dans des conditions réelles. Ils ont atteint une fiabilité de 90 % en 42 minutes, alors qu’il a fallu 60 heures à un groupe d’analystes pour le même résultat. La start-up française EarthCube développe également des logiciels basés sur de l’IA afin d’identifier automatiquement des sites ou des matériels stratégiques et de remonter des alertes en cas de suspicion. Quant à la reconnaissance faciale, et plus généralement la reconnaissance de données biométriques, elle permettrait l’identification immédiate et indubitable d’individus, en particulier dans des lieux fréquentés, à l’instar du système chinois Skynet.

Outre son action sur l’adversaire, l’IA pourrait déterminer les itinéraires les plus appropriés, en intégrant la praticabilité des axes ou la géologie du terrain, les conditions météorologiques, les capacités des véhicules, la présence probable d’engins explosifs improvisés, la situation tactique… En exploitant les données de maintenance recueillies sur les équipements, par exemple grâce à la vétronique des véhicules du programme SCORPION, l’IA anticiperait les dysfonctionnements, la commande de pièces de rechange et les opérations de réparation. La maintenance préventive du matériel garantirait une meilleure disponibilité de celui-ci et une atténuation des aléas des pannes en mission.

L’IA est déjà utilisée en simulation constructive à des fins de préparation opérationnelle des états-­majors. Dans l’armée de Terre, le système SOULT (8), logiciel SWORD du groupe Masa, peut simuler un affrontement terrestre et son impact sur des unités qui suivent fidèlement les principes de leur doctrine. Son usage pourrait être étendu à la conception de la mission réelle en cours. L’IA participerait ainsi à la validation des modes d’action, comme le propose Nexter avec sa caisse à sable digitale FINDMP. À terme, l’opérateur n’aurait plus à renseigner lui-même la doctrine adverse, l’IA la déduirait des données qu’elle a collectées. Elle pourrait même proposer des modes d’action aussi bien ennemis qu’amis. Par ailleurs, la simulation plus précise des effets des feux indirects rendrait plus réaliste le battle dammage assessment et l’appréhension des potentiels dommages collatéraux.

L’exigence primordiale de l’emploi de l’IA dans les armées réside dans une interface homme/machine éminemment convaincante au risque de désabuser les enthousiastes et de conforter les sceptiques. Une attention toute particulière doit être accordée à l’ergonomie et à l’intuitivité des applications, à la visualisation des réponses apportées par l’IA, à son interopérabilité avec les systèmes existants français et alliés ainsi qu’avec d’autres IA, aux technologies conversationnelles (traitement du langage, reconnaissance vocale) et à sa fiabilité technique. Pour être probante, l’IA doit être facilitateur pour l’utilisateur et non pas plus contraignante et chronophage, quelles que soient ses prouesses.

Pour que l’IA soit performante, certaines contraintes techniques doivent être prises en compte et d’autres levées. En effet, l’IA ne peut fonctionner que si elle dispose de suffisamment d’informations. Il s’agit donc de relever le défi du décloisonnement des données. Celui-ci remet en question le concept de droit d’en connaître, suppose des passerelles entre réseaux et systèmes fermés ainsi que des déclassifications massives, le tout en restant dans un cadre juridique de protection des données. En outre, la protection et la résilience des IA suggèrent la délocalisation en métropole de leurs serveurs de calcul et de stockage des données, ce qui soulève les questions de la sécurité et de l’accessibilité des flux d’informations ainsi que de la rapidité de transmission.

En outre, l’IA doit disposer de données abondantes et avérées à la fois pour son apprentissage et pour son fonctionnement nominal. D’une manière générale se pose le problème de la fiabilisation des données. Comment s’assurer que les données sont exactes et comment relativiser certaines sources ? Ces interrogations méritent des réponses adaptées sous peine de résultats faussés par des données erronées. De même, si les bases de données des exercices de préparation opérationnelle sont intégrées pour augmenter les bases d’apprentissage, ceux-ci doivent faire preuve d’un réalisme exemplaire afin de reproduire les conditions les plus proches possible de celles d’un engagement, et ce, dans toutes les fonctions opérationnelles. Un soin particulier doit donc être apporté pour ne pas inclure de biais au sein des données, car cela conduirait l’IA à les reproduire.

Par ailleurs, la crédibilité des résultats d’une IA réside dans la transparence de sa méthode pour y parvenir. Or les résultats, aussi spectaculaires soient-ils, sont aujourd’hui encore difficilement explicables. L’effet « boîte noire » crée de l’opacité autour de l’IA et provoque un réflexe de défiance face à des résultats énigmatiques. L’intelligibilité immédiate du « raisonnement » de l’IA est une absolue nécessité pour répondre aux enjeux éthiques, moraux, sociétaux et juridiques. Au-delà de l’instantanéité de l’opération, il est également impératif d’assurer l’auditabilité a posteriori de l’IA. Au contraire des débats actuels sur les voitures autonomes, la réflexion sur la responsabilité des prises de décision doit être pleinement aboutie avant la mise en service d’IA en opération.

Pour satisfaire toutes ces exigences, une allocation importante de ressources humaines, matérielles et financières est essentielle. En outre, l’obsolescence rapide d’algorithmes élaborés nécessite une perpétuelle évolution pour rester compétitif et performant. Une démarche d’expérimentations et d’évaluations, réalisées dans des conditions réalistes et encadrées par des experts compétents à la fois sur la technologie et sur la compréhension des spécificités militaires, est indispensable.

Des effets revers à appréhender

Temporairement, la mise en œuvre d’IA en EM opérationnel produira de la complexité, une charge de travail supplémentaire, une multiplication de la main-­d’œuvre et donc un accroissement de la taille du poste de commandement considéré. En somme, l’IA créera provisoirement l’opposé des résultats escomptés. Ce désagrément, inévitable, car il est inhérent au développement d’une technologie de rupture, pourrait cependant être minoré. Les efforts consentis dans la réflexion doctrinaire et dans les ressources allouées au bon fonctionnement de l’IA réduiraient à son strict minimum cette période transitoire.

Par nature, l’homme est influencé par ses sentiments, son expérience, sa tolérance au risque, ainsi que par sa fatigue et son stress qui peuvent perturber sa décision. En revanche, l’IA est considérée comme neutre et objective. En réalité, son apprentissage est biaisé par les données qui lui sont présentées. Il serait tout à fait imaginable qu’une IA destinée à la production de modes d’action amis en valorise certains par rapport à d’autres et se cantonne à une conformité représentative des données fournies. À l’inverse, une solution originale ou inhabituelle pour un EM pourrait dérouter et susciter du doute et des interrogations chronophages.

Par ailleurs, l’adversaire pourrait tout à fait concevoir des contre-­mesures face à une IA, à l’instar des « attaques contradictoires » (adversarial attack) développées actuellement par des IA pour induire en erreur une autre IA dont les algorithmes sont connus. Les images créant une sorte d’illusion d’optique pour l’IA ou les bruits de fond inaudibles pour l’homme et déformant la perception de l’IA en sont de bonnes illustrations. Il serait également envisageable que l’adversaire intoxique une IA « online » (qui apprend en permanence) avec des informations erronées, mettant à rude épreuve les mécanismes de fiabilisation des données. En 2016, d’après son communiqué officiel, Microsoft a fait la douloureuse expérience d’une attaque ciblée sur son chatbot Tay dès les premières heures de sa mise en ligne sur les réseaux sociaux. Tay en est venu à tenir des propos extrêmement racistes, antisémites, vulgaires… Les algorithmes d’IA doivent donc être en constante évolution afin de se prémunir contre ces menaces.

À l’opposé, une opération pourrait être menée dans une région reculée pour laquelle les armées disposent de peu de données numériques ou dans laquelle la population n’a pas accès à l’électricité ou à Internet. Dans de tels cas, l’emploi de l’IA serait fortement limité. Cela impose que les savoir-­faire humains soient intégralement conservés, au minimum tant que le fossé numérique entre les pays n’est pas comblé. La nécessité de résilience des EM face à des défaillances technologiques repousserait même cette échéance.

L’intelligence artificielle semble s’imposer comme un véritable enjeu de souveraineté et une évolution inéluctable de la technologie, qui n’épargnera pas les états-­majors en opération. Le prestigieux cabinet de conseil en stratégie McKinsey estime que 60 % des emplois actuels comprennent 30 % d’activités automatisables à une échéance de 20 à 40 ans. Sans tomber dans l’effet de mode, le fatalisme ou la résistance au changement, il convient d’agir résolument pour préparer la complémentarité entre l’homme et l’IA de demain. Dans cette perspective, un mandat sur le Commandement et le Contrôle des opérations Interarmées (C2IA) a été confié par le sous-­chef opérations de l’état-­major des armées, en adéquation avec les orientations de l’Officier Général Transformation Digitale des Armées (OGTDA), au Commandement Pour les Opérations Interarmées (CPOIA) et un C2 Lab a été lancé auprès des acteurs de l’innovation.

Dans certaines circonstances, il pourrait être envisageable que des EM opérationnels, restreints à leurs fonctions essentielles, soient déployés et s’appuient, pour les autres fonctions, sur des IA pleinement matures. L’IA crée des opportunités, mais aussi de nouveaux risques et de nouvelles menaces. Inexorablement, l’adversaire conduira lui aussi sa transformation numérique.

(1) CEA, « L’essentiel sur… L’intelligence artificielle », publié le 21 novembre 2017, (http://​www​.cea​.fr/).

(2) Cédric Villani, « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne », rapport, mars 2018, p. 11.

(3) Ibid., p. 219.

(4) Ronald A. Howard, « An Assessment of Decision Analysis », Operations research, vol. 28, no 1, 1980.

(5) Cédric Villani, op. cit., p. 220.

(6) Computers and Humans Exploring Software Security.

(7) Collection and Monitoring via Planning for Active Situational Scenarios.

(8) Simulation pour les Opérations des Unités interarmes et de la Logistique Terrestre.

Partager sur les réseaux sociaux

Rejoignez-nous

La newsletter FMES

Déposez votre mail pour vous abonner à notre newsletter mensuelle
et autres mailings (conférences, formations, etc.)

La newsletter FMES

Déposez votre mail pour vous abonner à notre newsletter mensuelle
et autres mailings (conférences, formations, etc.)