« Nous avions l’habitude de parler du nombre de chars, d’avions, de navires, de troupes, mais maintenant nous devons ajouter à l’équation des éléments comme les centres de données, les superordinateurs, la vitesse de simulation et la vitesse de reconnaissance » – Holger Mueller (2018).
La révolution de l’intelligence artificielle (IA) est en marche, et le domaine militaire est l’un des premiers concernés. Les grandes puissances s’en sont d’ailleurs vite saisi. Le Pentagone américain prévoit, par exemple, d’investir jusqu’à 2 milliards de dollars dans des systèmes d’intelligence artificielle sur la période 2019-2021. La France n’est pas en reste. En avril 2019, la ministre des armées Florence Parly déclarait vouloir faire de l’intelligence artificielle « une priorité de notre défense nationale ». Un rapport de 52 pages, présentant la doctrine française sur cette technologie de rupture, a rapidement été publié.
Or, tout comme les développements militaires du passé, cette avancée technologique nécessite cruellement une gouvernance multilatérale sur la question. Lors du sommet mondial “AI for Good” de 2018 à Genève, la directrice du bureau des affaires de désarmement des Nations unies, Anja Kaspersen, déclarait que « le désarmement se trouve à l’intersection entre la technologie et la sécurité ; il y a un côté négatif et un côté positif« .
Dans l’analyse qui suit, IDN pèse le pour et le contre de l’utilisation de l’IA dans la sphère militaire, ainsi que les obstacles à la mise en place d’une nécessaire gouvernance multilatérale sur le sujet.
L’IA, un apport pour le désarmement
Les bienfaits de l’IA dans la sphère militaire sont régulièrement avancés par ses promoteurs. En août 2019, un atelier de travail du bureau des affaires de désarmement des Nations unies s’attarda spécifiquement sur la question. Les participants, experts en la matière, montrèrent notamment que l’IA apporte des améliorations considérables aux services de renseignement, de surveillance, et de reconnaissance. Cela permet ainsi, entre autres, de réduire les dommages causés aux populations civiles. En outre, la rapidité des capacités d’analyse de l’IA permet d’augmenter le délai de réaction des décideurs en cas de crise, et ainsi de limiter les risques d’accidents ou d’escalade. Dans le domaine nucléaire, par exemple, un missile peut être déclenché en quelques minutes.
L’intelligence artificielle a également son utilité en termes de désarmement. En 2018, la secrétaire générale adjointe aux affaires de désarmement des Nations unies, Izumi Nakamitsu, écrivait que l’IA pouvait aider à la vérification du respect des traités. Grâce à sa capacité à évaluer de grandes quantités de données, cette technologie peut en effet efficacement détecter, tracer, et atténuer les risques potentiels. Nakamitsu indique que c’est notamment déjà en cours de mise en œuvre pour la vérification du Traité d’interdiction complète des essais nucléaires (TICEN).
Une efficacité militaire accrue et un désarmement facilité : ces arguments pourraient paraître convaincants. Convaincue, la France l’est, elle, très certainement, s’opposant à une « interdiction préventive » de la recherche en IA malgré les nombreux défis posés par ces systèmes. Ces défis sont pourtant manifestes.
Une IA insuffisamment entraînée pour être performante
En janvier 2019, IDN montrait déjà comment l’IA remettait en question le principe même de dissuasion nucléaire. Un précédent rapport soulignait quant à lui des risques cybernétiques plus généraux liés à cette rupture technologique, et notamment le potentiel piratage des systèmes d’armes nucléaires.
Plus généralement, un problème de fond de l’IA, qui concerne l’ensemble du milieu militaire, doit être mis en avant. L’intelligence artificielle, par définition, “apprend” grâce à son environnement. Trop souvent omise des analyses sur ces systèmes, cette composante clé a pourtant des implications cruciales. Alors que les humains peuvent s’entrainer sur des simulations de champ de bataille, l’inverse n’est pas aussi simple pour les systèmes IA. Ces derniers nécessitent des millions de données, d’exemples fournis, afin d’assimiler proprement ce pour quoi ils sont créés. Par exemple, l’entreprise de voitures autonomes Waymo a “entrainé” ses voitures sur plus de 16 millions de kilomètres afin de les préparer à toute une série de conditions différentes.
Or, de telles données n’existent pas dans le domaine militaire. Les simples simulations numériques ne peuvent se substituer à la réalité de la guerre. La relative rareté des conflits pose paradoxalement un problème puisque, bien évidemment louable, elle ne permet pas de fournir des données opérationnelles aux systèmes IA. Et, alors que les humains peuvent s’adapter aux conditions de la guerre, l’IA ne possède pas cette flexibilité – entrainant des défaillances potentiellement fatales. Que ce serait-il passé si une IA avait remplacé le Colonel Petrov, en septembre 1983, en voyant arriver ce qui ressemblait de prime abord à cinq missiles balistiques intercontinentaux américains ?
Pourtant, les grandes puissances font fi de cette limite criante. Une nouvelle course aux armements est en marche, et la volonté de battre ses concurrents – mise en lumière par la rivalité sino-américaine, amène les pays à faire des économies en matière de tests – et donc de sécurité. Or, ce sont ces mêmes précipitations qui ont mené ces dernières années à des accidents de voiture autonome. Remplacez désormais la voiture par un système d’armement ; les conséquences seront autrement plus néfastes.
Une gouvernance multilatérale de l’IA à usage militaire semble possible
Ainsi, l’établissement d’une gouvernance multilatérale sur l’IA à usage militaire est une nécessité des plus urgentes. Les acteurs pour le désarmement doivent s’en saisir au plus vite : l’IA, malgré des apports intéressants, est loin d’être une panacée. En 2018, dans son agenda pour le désarmement ‘Assurer notre Avenir Commun’, le secrétaire général des Nations unies António Guterres affirmait que « la maîtrise des armements a toujours été motivée par la nécessité d’anticiper les défis à la paix et à la sécurité posés par la science et la technologie ». Pourtant, deux ans plus tard, cette motivation face au défi de l’IA parait bien fragile.
Le principal frein à cette gouvernance multilatérale découle, à nouveau, de la définition même de l’IA. Ou, plutôt, de sa difficulté à la définir en termes militaires clairs et établis. L’intelligence artificielle n’est pas une technologie à usage unique, ni une fin en soi. Elle est simplement une technologie habilitante, à usage général. En cela, elle se rapproche bien plus de l’électricité, ou des moteurs à combustion interne, que d’armes telles que la bombe atomique. Il est donc difficile de légiférer pour contrôler une technologie qui pourrait avoir plus de potentiel encore que l’invention de l’électricité.
Faut-il pour autant se laisser aller au pessimisme ? Kenneth Payne, professeur au King’s College à Londres, écrivait en 2018 que « l’idée d’une maîtrise des armements pour l’IA n’en est qu’à ses débuts« . Même sans interdiction formelle de la technologie, les pays doivent s’accorder son usage, de la même façon que l’utilisation de mines terrestres a été prohibée.
En cela, l’atelier de travail du Bureau des affaires de désarmement des Nations unies a amené des experts de pays divers à explorer les enjeux de l’IA à usage militaire. C’est une indication forte que cette gouvernance multilatérale sur la question n’est pas une chimère. Plus que jamais, il faut en faire une réalité.