Louis Gautier, conseiller maître à la Cour des comptes, ancien Secrétaire général de la défense et de la sécurité nationale (2014-2018), est aussi professeur associé à l’Université de Paris 1, où il dirige la chaire « Grands enjeux stratégiques contemporains ».
La guerre augmentée ?
Enjeux et défis de l’intelligence artificielle dans les conflits futurs.
Introduction
En dévoilant le 5 avril dernier, lors d’une visite sur le campus de Paris-Saclay, la feuille de route du ministère des armées sur l’intelligence artificielle (IA), Florence Parly signalait que, la France, en cette matière, avait pris la mesure des enjeux pour notre défense. Déjà, le rapport de Cédric Villani de 2018 décomptait la défense parmi les cinq priorités de sa stratégie nationale en faveur du développement de la recherche en intelligence artificielle.[1]
Les enjeux technologiques et financiers sont en effet colossaux si l’on veut que notre pays ne soit pas distancé dans une course technologique pouvant déboucher sur le déclassement de ses systèmes de protection et de combat. La digitalisation des armements et la numérisation du champ de bataille, à l’œuvre depuis trois décennies, ont déjà transformé en profondeur la conduite des opérations militaires et la nature des combats. Mais, ce qui est en train de changer sous nos yeux et amorce un saut dans l’inconnu, ce sont les effets produits par la conjonction de plusieurs facteurs fortement évolutifs : le stockage massif des données, leur traitement en temps réel grâce à des réseaux et des algorithmes de plus en plus performants, des capacités de calcul jusqu’alors inégalées et incommensurables demain quand les ordinateurs quantiques seront à pied d’œuvre[2]. Ce qui change, c’est l’essor de conflictualités dans le cyber et dans l’espace que l’IA favorise directement ou indirectement, car il s’agit de dimensions stratégiques en soi et névralgiques pour les combats futurs qui supposent de rester maître de ses réseaux et de ses capteurs ; ce qui change enfin, c’est la mobilisation de nouvelles technologies (biotechnologie, nanotechnologies, imprimantes 3D…) dans la fabrication et la reproduction d’armes autonomes dotées de fonctions complexes et de plus en plus miniaturisées[3], pouvant aboutir, sur une large échelle, au déploiement et à l’emploi de systèmes d’armes létaux autonomes (SALA), autrement dit à des « robots tueurs ». Nous n’en sommes pas encore là. En sommes-nous très loin ? Entre fantasme et réalité, comment, à vue humaine, dessiner les contours de la « guerre augmentée »[4] ?
Une chose est certaine, l’intelligence artificielle est en passe de révolutionner l’art de la guerre, tout en posant de redoutables problèmes éthiques et philosophiques à nos sociétés démocratiques et plus fondamentalement à la conscience humaine.
« Nous choisissons la voie de la responsabilité, celle de protéger nos valeurs et nos concitoyens tout en embrassant les opportunités fabuleuses offertes par l’IA »[5], cette voie tracée pour notre défense est à la fois juste et étroite : financièrement tant nos moyens sont comptés, militairement tant les progrès vont vite, politiquement et déontologiquement tant le champ des possibles est ouvert.
- L’intelligence artificielle et le nerf de la guerre
En respectant le cadre de la programmation militaire actuelle tout en prolongeant l’effort à l’horizon de 2025, le ministère des armées entend consacrer 100 millions d’euro par an aux études et développements consacrés à l’IA. Il est également prévu d’ici quatre ans de recruter 200 spécialistes du domaine pour les centres d’expertise de la Délégation générale de l’armement (DGA) et des armées. L’agence de l’innovation de la défense, nouvellement créée, sera chargée de coordonner les initiatives en matière d’IA qu’elles soient portées par le ministère des armées ou les industriels du secteur. Les premiers projets portent de façon réaliste sur des domaines non létaux : la logistique, la maintenance prédictive, la cartographie augmentée du champ de bataille, le renseignement, la navigation automatique de véhicules ou de mini drones de reconnaissance…
A la fois en raison de cette mobilisation budgétaire et de la priorisation de ses projets, la France se retrouve en tête des pays européens, dans un peloton qui regroupe parmi les 28 (avant le Brexit) le Royaume-Uni, l’Allemagne et l’Italie. Cependant, notre pays est inéluctablement distancé par les Etats-Unis et la Chine. Le département d’Etat américain a ainsi lancé plus de 600 programmes militaires faisant appel à l’intelligence artificielle et prévoit d’engager 1,7 milliard d’euro d’ici 2023. La Chine investit au même niveau.
Dans ce domaine dual par excellence, on constate combien la dispersion des efforts européens est préjudiciable. Les Européens affichent, en effet, en matière d’IA un retard global par rapport aux Etats-Unis et à l’Asie ce qui nuit gravement à leurs économies mais, plus spécifiquement pour leur défense, affecte le développement d’applications militaires. Là où, secteurs civil et militaire confondus, la France et l’Allemagne investissent par an moins de 1 milliard de fonds publics et privés à deux, et alors que la Commission européenne exhorte les Etats membres de l’Union à porter, à partir de 2020, leur effort collectif à 20 milliards d’engagements par an, la Chine et les Etats-Unis y consacrent, chacun, d’ores et déjà dix fois plus de moyens, les financements publics étant précédés aux Etats-Unis par les investissements considérables des GAFAM qui se chiffrent en milliards de dollars.
Outre ce déséquilibre des ressources financières, les européens pâtissent de choix économiques et juridiques qui les privent des richesses immatérielles que constitue pour l’IA l’accumulation de données captées et appropriées par les mastodontes américains, Google, Amazon, Facebook, Apple, Microsoft mais aussi chinois Alibaba, Tencent, Baidu, Xiaomi …
Après que Bruxelles a sonné le tocsin[6], il est grand temps que les Européens se ressaisissent. Il convient à la fois de considérablement renforcer le niveau des investissements en IA mais aussi de lutter, par des coopérations et des politiques communes, contre une trop grande fragmentation des projets industriels et des programmes de recherche. Dans le domaine militaire, il conviendrait en particulier que la mise en place du prochain fond européen de défense (FEDef) qui devrait se voir doter, entre 2021 et 2027, de 13 milliards d’euro favorise, comme une priorité, le financement de programmes conjoints en IA.[7]
A condition de redoubler les efforts, les Européens ne sont portant pas éliminés du jeu, notamment dans le domaine militaire. En effet, la recherche française et européenne en matière d’IA vient en pointe (parmi les tous premiers centres d’étude au monde dans ce domaine, on peut notamment citer l’INRIA qui fait jeu égal avec le MIT ou la Carnegie Melon University, l’Université Paris-Saclay, et Sorbonne université). En outre, l’avantage comparatif considérable retiré par les Américains et les Chinois du fait de la détention, dans leurs bases de données, d’informations concernant des milliards d’individus se réduit dès que l’on quitte l’univers transparent des applications civiles. Les données d’intérêt militaire sont généralement protégées, difficilement accessibles, et peu partagées. La France bénéficie même d’une position singulière en Europe en termes d’acquisition et d’analyse des données d’intérêt militaire. Elle le doit à une politique d’armement, caractérisée par son autonomie industrielle et technologique, à son acquis spatial et aux déploiements lointains de ses forces sur de multiples théâtres d’opération. Un Rafale produit ainsi plusieurs téraoctets de données par heure de vol et chacun des trois satellites d’observation CSO qui succèderont à Hélios 2 à partir de cette année[8] produiront cent fois plus d’informations que l’ensemble des capteurs spatiaux actuellement déployés pour les armées[9].
Chaque rupture technologique se traduit par une croissance exponentielle des besoins d’investissements pour la défense. Les coûts d’acquisition et de détention des équipements militaires suivent la même courbe ascendante. A titre d’exemple, les sauts technologiques observés dans la seconde moitié du XXème siècle, ont entraîné une très forte évolution du prix unitaire des avions de combat. Celui-ci en un demi-siècle est passé, en ordre de grandeur, de 50000€ environ en 1945 à 250000€ dix ans plus tard, de 2,5 millions en 1960 à 30 millions en 1980 puis à 70 millions au début des années 2000. Le coût d’achat et de possession dans la durée d’un F 35 américain est aujourd’hui de l’ordre de 350 millions d’euro. L’intégration initiale et au long cours[10] de l’innovation pour détenir des équipements militaires au meilleur standard a entraîné un très fort renchérissement des matériels de guerre, chars, avions, bâtiments de combat, tout en conduisant au cours des trois dernières décennies, toutes choses égales par ailleurs selon les pays, à une réduction des flottes en service dans les armées en raison de leurs coûts[11].
Ce modèle n’est cependant pas extrapolable tel quel s’agissant de la fabrication et de l’entretien des armes du futur. L’IA va, en effet, forcément bouleverser l’économie de production et les paramètres de conception des équipements militaires. Tout d’abord le transfert et la dissémination des technologies civiles vers les applications militaires seront des tendances fortes. Cette évolution est à double tranchant, positive s’agissant de la mutualisation des coûts de recherche, négative s’agissant du caractère fortement proliférant de certaines de ces technologies facilement reproductibles. Le secteur de l’armement et des industries de sécurité, risque en outre de voir apparaître, comme c’est le cas aujourd’hui dans le domaine spatial, de nouveaux acteurs venant du numérique. Cette hybridation économique risque d’avoir des conséquences majeures à la fois sur la banalisation des technologies militaires et sur leur commercialisation. A côté de cette tendance lourde, l’IA fait dévier bien des logiques aujourd’hui prise en considération dans la fabrication des systèmes d’armes. En favorisant l’automatisation des systèmes d’armes, l’IA évince l’homme de la machine et règle ainsi, à moindre coût, le casse-tête ergonomique du combattant embarqué. La miniaturisation et la logique de saturation vont en outre favoriser la prolifération des effecteurs employés en essaim. Par ailleurs, la polyvalence qui s’impose aujourd’hui en raison du coût des plates-formes ne devrait plus aussi systématiquement s’imposer, ce qui réduit le poids des contraintes. Le nombre des artefacts va de nouveau prévaloir sur la rareté … Il ne s’agit ici que de fournir quelques indications sommaires (et, à ce stade, discutables) sur des évolutions encore en gestation, pour souligner combien nous devons prêter attention aux conséquences multidirectionnelles des développements futurs de l’IA dans les affaires militaires, et cela à tous les niveaux de la décision : stratégique et tactique, financier et industriel.
La révolution de l’IA suppose d’abord de payer le prix d’un ticket d’entrée. Son montant très élevé, en termes d’investissements duaux publics et privés, suppose qu’il soit acquitté collectivement avec nos partenaires européens. L’argent, comme toujours est le nerf de la guerre ! Mais la révolution de l’IA pousse aussi à une réflexion sur l’organisation nationale et européenne de notre base industrielle et technologique de défense (BITD) et sur les schémas de production et de reproduction des armes nouvelles. Or cette réflexion est à peine engagée. Le débat sur les armes, sur leur perfectionnement et leurs usages ne l’est pas davantage. Comme toujours dans l’histoire, ces questionnements suivent avec un ou deux métros de retard l’invention des armes nouvelles et leurs premiers emplois.
- L’intelligence artificielle des armes
Trois paramètres expliquent l’expansion récente, pour l’instant non régulée et faiblement réglementée, de l’IA à tous les secteurs de l’activité humaine, dont la sécurité et la défense : la qualité des algorithmes ; la puissance de calculs ; la quantité de données collectées.
Les apports attendus de l’IA dans la gestion des affaires militaires sont ainsi nombreux. L’IA assure une accélération de la prise de décision, particulièrement bienvenue en situation de crise. Elle permet une meilleure intégration des paramètres utiles à l’évaluation des menaces ou encore à la planification et à la conduite des opérations. Elle facilite la gestion dans la durée d’une manœuvre complexe coordonnée impliquant le traitement massif et réactif de données. Elle favorise, en amont et dans les engagements au combat, l’optimisation des soutiens logistiques et plus généralement une meilleure allocation des moyens. L’IA embarquée sur des effecteurs peut aussi répondre à des missions fastidieuses (permanence opérationnelle) ou trop exposées pour le combattant. Dans les missions d’anticipation, de renseignement, de commandement et d’appui à distance, le recours de plus en plus fort aux algorithmes de calcul s’impose avec peu de réserves (même si des réflexions portant sur l’organisation, le réaménagement des chaînes de commandement, les pratiques professionnelles et déontologiques dans les armées sont, sur ces sujets, nécessaires). Plus on se rapproche des combats en revanche, plus ce qu’il est éthiquement et politiquement acceptable de voir traiter par l’IA et la question de la fiabilité des algorithmes se posent.
Force est de constater en effet, de façon générale, que la fiabilité atteint par l’IA varie encore beaucoup en fonction de la complexité du domaine d’apprentissage et de la difficulté à modéliser des propositions ou des réactions pertinentes guidant ou remplaçant le jugement humain. Le degré de fiabilité attendu de l’IA, n’est, en outre, pas la même s’il s’agit d’une suggestion par Amazon de l’achat en ligne d’un livre, de diagnostiquer grâce à un système expert un glaucome chez un patient, d’autoriser le décollage d’un avion après un check-in automatique, ou encore de cibler pour le neutraliser un pick up de l’AQMI dans le désert sahélien. Amazon seulement a le droit à l’erreur (avec mon exaspération en prime). Dans les autres cas, la marge d’erreur même ramenée à moins de 10% est de toute façon problématique.
C’est pourquoi, les potentialités de l’IA en lien avec l’emploi de la force armée sont de facto aujourd’hui « plafonnées » par un niveau de performance et un degré de fiabilité insuffisants pour que soit envisagé, sans de fortes restrictions, l’emploi d’automates offensifs s’affranchissant de tout contrôle humain. Ce qui signifie cependant, en l’état actuel de l’art, que beaucoup d’usages sont néanmoins possibles[12].
D’ores et déjà en effet tous les pays producteurs d’armement (Etats-Unis, Chine, Russie, Royaume-Uni, France, Israël..) proposent des systèmes d’armes intégrant des robots ou des systèmes autonomes, y compris létaux[13]. L’automatisation prévaut déjà largement dans la mise en œuvre des systèmes de défense, avec l’intégration poussée des séquences de détection de ciblage et de tir, qu’il s’agisse de défense anti-aérienne et anti missile, ou des systèmes d’autodéfense de plateformes de combat. Mais, une fois « initié », un missile de croisière ou « rôdeur » qui a la possibilité de se recaler en fonction de la mission programmée fonctionne déjà de façon autonome. Depuis longtemps, les avions de combat sont programmés pour évoluer en suivi de terrain automatique, leurs pilotes peuvent se contenter d’autoriser un tir que le calculateur principal de l’avion a élaboré seul. L’importance prise par les drones s’impose désormais comme une évidence, qu’il s’agisse de drones de surveillance ou de drones offensifs. La France emploie d’ailleurs quotidiennement des drones Reapers, de la mission Barkhane dans la bande sahélo-saharienne. Cette année, les forces armées américaine sont en mesure d’activer en permanence 90 orbites de drones aériens alors que la CIA en dispose aussi d’une vingtaine pour des opérations de surveillance ou ciblées. Dans le milieu maritime, les premiers systèmes d’autoprotection apparaissent au début des années 1960. Les navires de surface sont dotés de modes de tir autonomes au cours des années 1970. Les frégates françaises Horizon disposent d’un mode d’engagement totalement automatique pour son autoprotection contre les missiles, à l’instar du système Phalanx américain. En matière de renseignement et de guerre des mines l’emploi de drones maritimes se développe. Ainsi la firme Thalès propose un drone mixte de surface et sous-marin l’AUSS qui peut conduire un large spectre de missions de manière autonome sur une période de plusieurs semaines. Dans le domaine terrestre, les systèmes autonomes se sont au départ développés pour protéger la vie des combattants. Ainsi la France, en 2012, a déployé le robot Minirogen en Afghanistan pour lutter contre les engins explosifs improvisés. Mais les usages s’étendent. Les Israéliens pour contrôler la frontière sur la bande de Gaza utilisent un drone armé patrouilleur Segev. Le robot Strelok, capable de se mouvoir en environnement urbain, aurait été déployé par les forces spéciales russes en Syrie. Les Etats-Unis ont testé en Syrie et en Irak contre Daech, leur application Marven comportant des algorithmes de reconnaissance de cibles (avec un taux de réussite aux tests de 80%).
Après avoir été mises en œuvre pour assurer le ciblage et la pénétration des missiles, dans des systèmes de défense ou d’autoprotection ou encore sur des drones de surveillance, les applications opérationnelles de l’IA vont donc logiquement se multiplier et se diversifier non seulement dans la préparation et la gestion des conflits mais aussi dans la mise en œuvre de la manœuvre tactique et leur intégration systématique dans des outils offensifs.
La complexité des situations tactiques (identification ami/ennemi ; limitation des dégâts collatéraux ; appréciation de la proportionnalité du recours à la force ; intégration de la ruse ou du comportement aberrant chez l’adversaire…) excède encore la capacité d’analyse et de traitement des machines générant d’ailleurs des incidents (un Tornado britannique et un F18 ont été ainsi abattus en 2003 par des tirs fratricides de missiles Patriot en mode automatique, pour citer un exemple déjà ancien et connu). Ces dysfonctionnements sont traités pour enrichir l’apprentissage et corriger les processus. Jamais, du fait de ces erreurs un retour en arrière vers des systèmes non autonomes n’a été constaté. C’est une terrible loi du genre, on ne « neutralisera » pas plus l’emploi de l’IA dans les applications militaires que l’on a « désinventé » la bombe atomique après Hiroshima ni jadis les carreaux d’arbalète, pourtant interdits en 1139 par le concile de Latran. Seules les armes se dépassent entre elles. Le recours à l’IA laisse envisager des dépassements inédits[14] et suscite des craintes qui donnent le vertige[15].
- L’IA dans le brouillard de la guerre
Les effets de l’IA sur l’art de la guerre sont aujourd’hui en grande partie différés dans la mesure où les applications actuelles, qui viennent d’être décrites, ont un impact réel mais encore limité[16]. On est encore au stade d’une IA faible. Le passage à une IA forte qui suppose un apprentissage profond des machines[17] et des algorithmes sophistiqués est cependant inscrit dans un avenir prévisible qui pose la question de la place de l’homme dans la boucle de décision. Aujourd’hui l’IA fonctionne dans un mode collaboratif avec le combattant. Demain, l’IA pourra non seulement trier des informations, analyser des situations, proposer des séquences de réponse et les mettre en œuvre en fonction d’un ordre reçu ou programmable (ordre de tir, mise en veille, en mode automatique) mais aussi commander des robots et leurs logiciels pour les faire agir.
L’automatisation complète ou l’IA gère la planification d’une tâche et son exécution dans des opérations de combat relève encore de la science-fiction. En revanche, d’autres modèles d’automatisation qui relativisent la place de l’homme sans la supprimer, sont d’ores et déjà « pensés » et envisagés. Il s’agit de schémas ou les robots télé-opérés ou télé-surveillés agissent comme des « équipiers » déployés à côté ou à distance d’un pilote ou d’un groupe de soldats pour les assister dans différentes tâches et recevoir dans certaines conditions des délégations d’action.
Confrontés aux évolutions récentes ou prévisibles des conflits contemporains, à leur durcissement, à leur durée, à leur asymétrie, à la relativisation de la suprématie militaire occidentale, à la prolifération et à la dissémination technologiques, la digitalisation et l’IA rétablissent des équilibres, permettent de s’affranchissent des contraintes d’emploi ou neutralisent des avantages. Les robots qui agissent sur terre, sur mer, dans les airs et l’espace ne sont pas limités dans leurs usages par l’hostilité des milieux. Ils peuvent venir partiellement compenser des insuffisances numériques, combler des déficits capacitaires, voire des défaillances humaines.
Au-delà des progrès potentiels et problématiques, dans la dimension opérationnelle et tactique, c’est en terme stratégique que les nouvelles technologies changent la donne, notamment pour contrer les capacités croissantes de déni d’accès ou d’interdiction de zone, saborder des réseaux de communication et de commandement adverses, bref trouver et exploiter les défauts dans la cuirasse de l’ennemi voire gagner la guerre sans engagement cinétique ni coup férir, simplement par le démantèlement méthodique de ses défenses. Evidemment, cette supériorité que l’on recherche pour nous-mêmes d’autres aujourd’hui l’ambitionnent aussi et nous ont déjà devancé. L’IA peut être mise au service de toutes les missions : de prévention, de protection, de dissuasion ou des actions offensives. Elle peut être utilement employée pour maintenir la paix ou au contraire précipiter l’humanité, tête baissée, dans une terrible fuite en avant.
L’IA ne dissipe pas le brouillard de la guerre, même si son exploitation donne l’illusion de rendre les choses plus intelligibles en les mettant en équation. L’apprentissage des machines dépend des informations qui leur sont fournies. Il est donc soumis aux déficiences des capteurs ainsi qu’aux biais culturels et cognitifs voire à la ruse des humains. Des contre-stratagèmes seront immanquablement élaborés (avec l’aide ou non des machines) pour tromper les logiciels. Il y aura toujours des éléphants d’Hannibal qui franchiront les Alpes ; la guerre conservera sa part de surprise et d’aberration.
Conclusion
Si l’IA, pas plus que la dissuasion au XXème siècle, ne règle sa cause à la guerre des hommes entre eux, elle en modifie, en revanche, profondément la grammaire et les codes. L’IA est le nouveau paradigme des conflits armés au XXIème siècle et confronte l’humanité au renouvellement de ses questionnements philosophiques et éthiques sur le libre-arbitre, la responsabilité, la valeur de la vie humaine, l’autorisation de tuer dans un temps qui désormais intègre la guerre dans la paix. La création voulue par la ministre des armées d’un comité consultatif d’éthique ou encore son souhait d’une IA « robuste fiable et certifiée » et enfin l’ouverture de discussions internationales pour en encadrer les usages sont donc à saluer. Résumer le propos en disant : « oui à l’intelligence artificielle et non aux robots tueurs ! », comme le font certains analystes, reviendrait à escamoter un débat qui ne fait que s’ouvrir après avoir tardé.
[1] « Donner un sens à l’intelligence artificielle (IA) », Stratégie nationale de recherche en intelligence artificielle, Rapport de Cédric Villani, 28 mars 2018.
[2] Ce qui est annoncé mais dans un avenir toujours indéterminé
[3] Voir à ce sujet le rapport « Chocs futurs » Etude prospective à l’horizon 2030 sur les impacts des transformations et des ruptures technologiques sur notre environnement stratégique et de sécurité, du SGDSN publié le 21 avril 2017, www.sgdsn.gouv.fr
[4] Il s’agit de formuler un concept général qui me semble à la fois plus parlant et mieux adapté à une transformation de la guerre en cours et tributaire des développements militaires futurs de l’IA que le concept d’Hyperwar, popularisé par Amir Husain ou John R. Allen, qui semblent considérer comme acquis les résultats de ces développements.
Hyperwar: Conflict and Competition in the AI Century, (Amir Husain, John R Allen, Paul Sharre, August Colle…) SparkCognitionPress, janvier 2018
[5] Discours de Florence Parly, ministre des armées, à l’occasion de sa visite de l’institut de recherche DataIA et de la publication de la feuille de route du ministère sur l’intelligence artificielle, 5 avril 2019
[6] Voir en particulier la Stratégie sur l’intelligence artificielle adoptée en avril 2018 et le plan coordonné élaboré par la Commission européenne avec les Etats membres pour favoriser le développement et l’utilisation de l’IA en Europe, annoncé le 7 décembre 2018
[7] Voir à ce sujet les conclusions du rapport « Défendre notre Europe », 6 mars 2019
[8] CSO-1 a été mis sur orbite le 18 décembre 2018
[9] Voir l’article de Nathalie Guibert, « Les défis militaires de l’IA », Le Monde, 16 octobre 2018
[10] La durée de vie, des aéronefs, bâtiments et véhicules de combat, régulièrement rénovés (retrofit complet à mi- vie), dépasse souvent les 30 ans.
[11] Le F22 américain Raptor n’a été acquis qu’à 170 exemplaires et le nombre de Rafale fabriqués à ce jour est inférieur à 180
[12] Voir à cette égard les contributions aux conférences de la Chaire grands enjeux stratégiques de la Sorbonne (Université de Paris1- Amphithéâtre Oury) du 25 mars 2019 : David Sadek, Vice président Recherche Technologie et Innovation, THALES ; Jérôme Lemaire, Chargé de mission Intelligence artificielle, Direction générale de l’armement, Ministère des armées sur l’ Intelligence artificielle et traitement des données et celle du 1er avril 2019 : Eric Papin, Directeur de l’Innovation et de l’Expertise Technologique (DIT), NAVAL GroupVision de Naval Group sur l’apport de l’Intelligence Artificielle dans le domaine naval ; Eve Gani, Directrice de l’Innovation, Défense et Sécurité, Groupe Sopra Steria ; Mohammed Sijelmassi, Digital Transformation Officer, Groupe Sopra Steria intitulée :L’intelligence artificielle peut-elle dissiper le brouillard de la guerre ?
[13] Etude de Marché, Military Robots, Wintergreen Research (2015)
[14] Paul Sharre, Army of none: Autonomous Weapons and the Future of War,WW Norton, 20 mars 2018
[15] Jean-Gabriel Ganascia, Le mythe de la singularité, Faut-il craindre l’intelligence artificielle ?, Science ouverte, Seuil, février 2017.
[16] Jean-Christophe Noël, « l’intelligence artificielle révolutionnera-t-elle l’art de la guerre ? », Politique étrangère, vol.83, n°4, hiver 2018-2019.
[17] Pour être exact le machine learning est un apprentissage automatique qui se fonde sur des approches statistiques pour donner aux ordinateurs la capacité d’apprendre à partir de données.