Politique fiction. 2032. Le tribunal de droit international humanitaire de La Haye se voit confronté à un nouveau cas de génocide localisé par des robots tueurs autonomes. C’est déjà la 3ème fois cette année, et nous sommes en avril. Pourtant, les affrontements dans le monde n’ont jamais fait aussi peu de pertes humaines et la part de la défense dans le budget des pays développés a été divisée par trois. L’intelligence artificielle a depuis quelques années imposé sa marque dans le paysage géopolitique des conflits armés.
L’intelligence artificielle au service de la défense nationale
L’intelligence artificielle, souvent rencontrée sous son abréviation IA, représente probablement la plus grande avancée technologique de ce début de siècle. Et comme toutes les innovations marquantes, elle apporte son lot d’opportunités et de menaces.
De nombreux domaines bénéficient d’ores et déjà des avantages de l’IA : les marchés financiers comme l’industrie profitent de ses algorithmes sophistiqués permettant de réduire les coûts de production et de manutention, ou bien de faciliter la prise de décision sur des marchés toujours plus aléatoires.
Mais il est un domaine où le développement de l’IA est encore regardé avec prudence et précaution : la défense et l’industrie militaire. Pour toutes les raisons éthiques et morales qui peuvent venir à l’esprit, confier des systèmes létaux à des logiciels, algorithmes et robots est encore un pas que l’humanité peine à franchir, déchirée entre les experts militants pour une utilisation raisonnée de l’IA dans les conflits armés, et ceux qui s’insurgent contre la possibilité de voir émerger un jour des « robots tueurs ».
L’intelligence artificielle est un vaste domaine de l’informatique et du développement algorithmique, qui regroupe plusieurs strates de dévotion logicielle*. Reposant sur l’utilisation de gigantesques quantités de données pour optimiser les réactions des machines fonctionnant sur la base d’une intelligence dite « artificielle », les systèmes utilisés aujourd’hui par l’industrie de défense et les ministères des armées de divers pays sont, dans leur globalité, utilisés afin de promouvoir une gestion optimale des ressources administratives et des coûts engendrés par les actions de défense et de dissuasion.
Dans ce cadre, le « machine learning » (apprentissage machine en français) est la sous-discipline de l’IA qui porte le plus de fruits dans le monde de la défense. Le principe est simple, et très éloigné de tous les volets de l’opus Terminator : une machine permet à d’autres machines d’apprendre à réagir à diverses situations, en interagissant avec elles et en fournissant une grande quantité de données extraites de situations réelles rencontrées sur le terrain.
Ces stratégies de défense sont aujourd’hui pleinement exploitées, y compris en France. « L’intelligence artificielle se présente comme la voie principale de la supériorité tactique », comme le soulignait un rapport de l’IFRI en octobre 2018. A titre d’exemple, les trois satellites tactiques français, héritiers d’Helios 2 et mis en service en 2019, produisent cent fois plus d’information chacun que l’ensemble des satellites de défense tricolores en 2018. Du pain béni pour les machines carburant à l’intelligence artificielle.
Un avantage technique et économique implacable
« Je compte bien faire de l’intelligence artificielle une priorité de notre défense nationale » affirmait Florence Parly, lors de son discours à Saclay en avril dernier. ELle faisait déjà la part belle aux technologies informatiques de pointe dans le budget de la défense française. Le détail de ce plan est dévoilé le 13 septembre dernier, dans un rapport de 52 pages détaillant la stratégie française en la matière.
Plusieurs mesures phares sont censées permettre à la France de ne pas rater le train technologique que la défense mondiale pourrait prendre. Il y a la création d’une unité IA au sein de l’Agence d’Innovation de la Défense (AID). Il y aussi une enveloppe de 100 millions d’euros annuels entre 2019 et 2025 dans le cadre de la loi de programmation militaire. Il y a enfin la naissance d’un comité interministériel de l’éthique de l’IA qui permettra de « se prononcer sur les questions éthiques que pourraient soulever les développements futurs de l’intelligence artificielle appliquée au domaine militaire ».
Pourquoi tant d’efforts pour une technologie qui fait encore l’objet de tant d’interrogations morales ? Tout d’abord, les projets de développement technologique liés aux questions de défense sont tout sauf de notoriété publique. Il s’agit de conserver cet « effet de surprise » qui était particulièrement cher au théorcien de la guerre, Clausewitz.
Les puissances mondiales ayant les moyens d’investir des ressources financières et humaines dans les projets d’intelligence artificielle de la défense, du logiciel d’optimisation de gestion au plus indépendant des robots tueurs, se doivent d’être vigilants et d’évaluer ce risque de surprise stratégique. « La technologie est à la fois un enjeu, un perturbateur et un arbitre des équilibres stratégiques » affirmait le président de la République lors de son discours à l’Ecole de Guerre le 7 février.
Il y a l’enjeu de la supériorité tactique : aide à la décision, aide logistique, soutien et maintien en condition opérationnelle, combat collaboratif homme/machine, etc. Mais les enjeux en matière de renseignement et de mode combat font de l’IA un facteur de ruptures stratégiques possibles. L’IA a d’ailleurs été qualifiée d’« infrastructure stratégique » par Emmanuel Macron, placée ainsi aux côtés de la physique quantique et de la 5G.
L’IA représente tant un gain en efficacité militaire qu’une réduction drastique des coûts opérationnels. C’est pourquoi la France s’oppose à « une interdiction préventive » de la recherche en IA, « qui ne permettrait pas de répondre aux défis juridiques et éthiques posés par ces systèmes ».
Des défis éthiques et juridiques
En évoquant l’utilisation d’intelligence artificielle pour des applications militaires, l’inconscient collectif tend à saturer de références cinématographiques multiples. Elles mettent, pour la plupart, en scène des robots tueurs, développés initialement avec une éthique et une morale forte, mais finissant inexorablement par blesser ou tuer l’être humain.
« L’intelligence artificielle est plus dangereuse que l’arme nucléaire » affirmait Elon Musk. Co-signataire aux côtés de nombreux autres chercheurs en IA et personnalités comme Stephen Hawking ou Steve Wozniak d’une lettre ouverte appelant à l’interdiction du développement de robots tueurs indépendants, il résume par une de ces phrases chocs qui font sa notoriété l’opinion d’une partie des experts en informatique.
Sur ce terrain, l’entrepreneur californien n’a pas la primauté de la réflexion : une étude de la Human Rights Watch et de la International Rights Clinic de la faculté de droit d’Harvard publiait dès 2012 une mise en garde contre « l’émergence des armes autonomes. Ils seront capables de sélectionner et viser des cibles « sans intervention humaine ». Ce serait réalité d’ici « 20 à 30 ans »… tandis qu’en 2013 était publié par des scientifiques de 37 pays le « Scientists’ Call to Ban Autonomous Lethal Weapons ».
Huit années après, nous voici au coeur du débat brûlant autour de ces armes autonomes, permises par le développement de l’intelligence artificielle. L’utilisation de robots tueurs serait en effet un abandon total des garanties face aux populations civiles. Au delà de la difficulté morale et éthique d’accepter de laisser la possibilité à un système autonome (au plein sens du terme) de décider librement de ses cibles et de leur exécution potentielle, l’essor des armes basées sur l’intelligence artificielle est également confronté à un casse-tête juridique sans précédent.
La difficulté de bannir par la loi et le droit les armes autonomes repose en effet sur la difficulté intrinsèque de définir une arme autonome. Un drone contrôlé à distance est-il une arme autonome, au même titre qu’une batterie de missiles indépendante ? Diverses définitions sont avancées et le consensus n’est aujourd’hui pas en vue. Par ailleurs, une question de responsabilité juridique est fréquemment au coeur de la réflexion. Si un système autonome de combat venait à blesser ou abattre une cible civile ou une cible militaire non désirée, quel serait l’acteur responsable ? Le programmeur ? L’État mettant en service l’appareil ? Son opérateur référent dans le cas où l’humain est toujours inclus dans la boucle ? Son fournisseur et fabricant ?
Autant de possibilités, pour aucune réponse tranchée. Le droit international de la guerre interdit à ce jour le déploiement d’arme ou d’engin de mort qui ferait en sorte qu’il serait impossible de déterminer clairement qui est le responsable d’éventuelles victimes civiles, par exemple. Une interprétation des textes mettant un frein clair au cadre d’utilisation des armes issues de l’intelligence artificielle.
Ces défis éthiques et juridiques limitent les applications militaires de l’IA
Heureusement pour les détracteurs de l’IA militaire, la technologie accessible actuellement est encore loin de nous permettre de développer des systèmes autonomes efficaces.
Le paradoxe de McCarthy en est une illustration flagrante. L’inventeur du terme « intelligence artificielle » avait souvent tendance à mettre la main dans sa poche lors d’allocutions et d’interviews afin d’y chercher une pièce de 10 centimes. Ce geste simple, demeure aujourd’hui impossible pour le plus sophistiqué des systèmes robotiques d’intelligence artificielle.
Les logiciels de reconnaissance utilisé dans le domaine de la défense ne permettent pas aujourd’hui de distinguer un pick-up militaire d’un pick-up civil : difficile d’envisager une application létale sans dommages collatéraux potentiels dans ce cadre…
Comme le précisait Florence Parly, « la France n’envisage pas de développer des systèmes pleinement autonomes », développant : « L’intelligence artificielle reste une technologie jeune, et la faible maturité de certaines approches ne permet pas aujourd’hui de les utiliser dans des applications critiques, qui sont à forts enjeux. »
L’usage est donc aujourd’hui tourné vers une politique de soutien des forces armées actives. Par exemple, l’armée française a mis cette année en service le Système de Lutte Anti-mines du Futur (SLAMF). C’est un essaim de robots sous-marins qui procéderont au déminage sans exposer les soldats à des risques inconsidérés pour leur vie. Il s’agira autant de porter des charges lourdes ou de procéder à l’évacuation de blessés en zone de conflit armé. Ce sont des tâches qui peuvent d’ores et déjà être réalisées par des robots intelligents, et qui seront mises à profit dans les années à venir.
Une application particulièrement importante de l’intelligence artificielle dans le domaine militaire connaît toutefois une croissance exponentielle, sans être exposée à ces questions de limitations éthiques, juridiques et technologiques. L’IA au service de la cybersécurité.
Outil indispensable afin de résister aux attaques « haute fréquence » de systèmes d’IA adverses, l’automatisation du processus d’attaque face à une cible informatique est au premier plan des avancées techniques dans la manipulation militaire de l’intelligence artificielle. Comment s’adapter, réagir efficacement et savoir déceler les failles d’un systèmes aux milliers de couches de sécurité auto-gérées de façon intelligente ?
En utilisant le même type de technologie que celle que l’on veut endommager. La majorité des systèmes d’intelligence artificielle utilisant des procédures de machine learning, il est tout fait nécessaire de prévoir une cybersécurité basée sur des protocoles eux aussi intelligents, afin de se prévaloir de la vulnérabilité de ces systèmes techniques, qui tomberaient comme des dominos dans le cas d’une intrusion réussie par une IA adverse.
Vers une nouvelle course à l'armement ?
La frénésie autour des technologies d’IA se déploie dans la quasi-totalité des sous-domaines de la défense. « Celui qui deviendra leader de ce domaine sera le maître du monde », comme le résume sobrement Vladimir Poutine. Un nouvel affrontement pour une suprématie technologique qui n’est pas sans rappeler la course à l’armement nucléaire ou encore la guerre de l’espace.
L’ensemble des académies des sciences des pays du G7, réunies en mars 2019 en France à l’occasion d’une réunion préparatoire du sommet, n’hésite par ailleurs pas à qualifier cet avènement technologique de « nouvelle course aux armements », tout en appelant au développement de Systèmes d’Armes Létales Autonomes (LAWS, Lethal Automated Weapon Systems en anglais) en conformité avec le droit international humanitaire : « un débat de politique publique portant sur l’utilisation destructive ou militaire de l’intelligence artificielle devrait être encouragé ».
Trois puissances se partagent aujourd’hui la part du lion concernant la suprématie tactique liée aux avancées en terme d’intelligence artificielle militaire : les États-Unis, la Chine et la Russie.
L’État américain inscrit son développement, mesuré et prudent, en terme d’intelligence artificielle de défense dans un programme de la DARPA (Defense Advanced Research Projects Agency) appelé AI Next. Il vise à répartir une dépense de 1,73 milliards d’euros sur cinq années à compter de 2019 afin de financer les divers programmes de développement de systèmes autonomes intelligents. Développement prudent malgré les sommes en jeu, le Pentagone ayant dépensé 521 millions de dollars selon Breaking Defense en robotique en 2017 mais dont 79 % étaient consacrés aux drones aériens, systèmes téléguidés déjà bien établis dans nombres de forces armées autour du globe.
Depuis, plusieurs systèmes autonomes ont cependant été mis en service dans les forces armées américaines : en 2017, Leader-Follower Automated Ground Resupply constituait un réseau de transports automatisés s’organisant en convoi derrière une voiture de tête avec pilote, tandis que le MK 15 Phalanx Close-In Weapons System était la première batterie de défense anti-aérienne et anti-missiles possédant un mode automatisé en service dans la Navy américaine.
Une course à l’armement telle que des acteurs privés se joignent au mouvement : Samsung développe et produit depuis 2013 le robot SGR-A1, machine autonome permettant de faciliter la surveillance armée de la zone démilitarisée entre les deux Corées, tandis que Google joint ses efforts et ressources à celles du Pentagone afin de travailler sur le projet Marven, qui consiste en le développement et le traitement intelligent d’images de drones et de satellites ayant déjà fait ses preuves avec un taux de succès de 80 % lors de frappes ciblées contre l’État Islamique.
La Russie, puissance militaire rivale, annonce quant à elle les avancées les plus spectaculaires. Le pays-continent a présenté ses deux modèles de chars automatisés, Uran-9 et Vikhr, de 11 et 16 tonnes respectivement, qui se sont avérés in fine être simplement téléguidés par des opérateurs extérieurs, avec assistance intelligente par l’appareil.
Selon Jean-Christophe Noël, de l’IFRI, c’est finalement la Chine qui serait, en mai 2019, la puissance la plus avancée dans la recherche fondamentale et les applications concernant l’IA. Un cadre qui a pu amener le gendarme du monde à prendre très récemment des mesures afin de limiter en 2020 les exportations de logiciels d’intelligence artificielle vers l’empire du milieu, en établissant un contrôle renforcé, effectif au 6 janvier 2020, concernant les logiciels liés à l’imagerie spatiale, les capteurs et drones.
« Le gouvernement veut empêcher les entreprises américaines d’aider les chinois (contre leur gré) à fabriquer de meilleurs produits d’intelligence artificielle qui pourraient servir à l’armée », d’après James Lewis, du Center for Strategic and International Studies.
Une politique qui n’a rien d’étonnant, lorsqu’une étude parue en 2013 dans The Fiscal Times estimait déjà l’économie inhérente à l’utilisation de l’IA militaire à 620 000 dollars par soldat remplacé en Afghanistan chaque année. Une économie de 620 millions de dollars par brigade par an, équivalent au plan d’investissement français dans le domaine de l’IA de défense pour les cinq années à venir.
Difficile de rivaliser dans cette optique avec les géants de l’intelligence artificielle, la France étant reléguée au rang de partenaire de second ordre, possédant néanmoins un fort réseau de traditions scientifiques et d’ingénierie, illustré par l’obtention du Prix Turing (« Prix Nobel » de l’Informatique) par Yann Le Cun en 2019, chercheur français et l’un des pères de l’apprentissage profond (deep learning).
La bataille fait donc rage sur tous les plans autour de la question de l’intelligence artificielle pour une application militaire. Bataille technologique afin de développer les machines et appareils les plus sophistiqués, mais aussi bataille philosophique et juridique autour de l’utilisation de ces mêmes technologies.
L’utilisation de la voiture autonome, basée sur des technologies d’intelligence artificielle, fait très lentement son chemin dans la conscience des habitants de la planète. En sera-t-il de même des systèmes intelligents de défense ? Une seule chose est sûre : personne ne pensait il y a de cela 20 ans que le champion du monde de go serait une intelligence artificielle encore invaincue à ce jour par l’homme, et aux stratégies incomprises, du nom d’Alpha Go. Si vis pacem, para informatica bellum ?
* La dévotion logicielle est un procédé par lequel un logiciel est programme pour poursuivre automatique le développement et la mise à jour d’autres logiciels subalternes.