L’intelligence artificielle bouleversera le monde. Entendue comme « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de stimuler l’intelligence », l’IA transformera tous les secteurs de nos sociétés, y compris le domaine militaire. Pourtant, ses implications au sein des systèmes d’armes nucléaires sont absentes des analyses, alors même que l’IA appliquée au nucléaire militaire pourrait condamner l’humanité à sa perte.
Développement technologique le plus important de notre siècle, l’intelligence artificielle (IA) bouleversera profondément tous les secteurs de nos sociétés. L’IA aura aussi des conséquences sur le paysage géopolitique : des États comme les États-Unis ou la Chine se sont lancés dans une course à l’intelligence artificielle. Dans un article du Monde publié le 16 octobre dernier, la journaliste Nathalie Guibert décryptait une étude de l’Institut français des relations internationales (IFRI) sur les applications militaires de l’intelligence artificielle. Mais, oubli volontaire ou non, ni l’IFRI ni Le Monde n’abordent le thème pourtant essentiel des défis nucléaires de l’intelligence artificielle. Pourtant, l’IA appliquée au nucléaire militaire pourrait condamner l’humanité à sa perte, tant les dangers sont grands et réels.
Course à l’intelligence artificielle
Une compétition mondiale s’est ouverte entre les Etats-Unis, la Chine et la Russie pour une utilisation de l’IA comme machine de guerre, dans des systèmes autonomes sophistiqués capables d’apprendre par eux-mêmes à effectuer des tâches spécifiques. La nouvelle ère nucléaire devra composer avec les progrès et l’omniprésence de l’intelligence artificielle. Un rapport de la RAND Corporation publié en mai 2018 présentait le potentiel déstabilisateur de l’intelligence artificielle pour la stabilité nucléaire et stratégique.
Une remise en question du principe de dissuasion
Deux types de risques sont particulièrement à craindre. L’IA va d’abord renforcer les capacités de renseignement des armées, décuplant leurs capacités pour mener à bien des missions jusqu’ici considérées complexes, voire impossible. C’est le projet développé par les États-Unis, visant à frapper les lanceurs mobiles de missiles balistiques. Jusqu’alors, plusieurs pays avaient déployé des lanceurs de missiles mobiles, rapidement déployables puis déplaçables, ce qui rendait difficile un suivi par satellite de leurs déplacements.
Un système d’intelligence artificielle serait capable d’utiliser et d’analyser des données en temps réel pour détecter des signes avant-coureurs de mouvement ou de déploiement de lanceurs de missiles mobiles. Cela permettrait aux États d’anticiper de potentielles attaques, mais cela affaiblirait fortement la dissuasion nucléaire et notamment le principe de destruction mutuelle assurée. Les États, craignant pour la protection de leur arsenal et pour leur capacité de seconde frappe, pourraient avoir recours à l’arme nucléaire de manière préventive.
Aide à la décision, vraiment ?
Le rapport de la RAND Corporation alerte également sur les risques liés à l’aide à la décision. C’est un domaine dans lequel l’IA devrait jouer un rôle important à l’avenir. Certes, le scénario d’un système autonome déclenchant le feu nucléaire hors de tout contrôle humain demeure hautement improbable. La tentation d’utiliser l’intelligence artificielle pour accélérer la prise de décision en temps de crise nucléaire est par contre immense : ses algorithmes seront capables d’évaluer une menace et de planifier automatiquement une réponse optimale dans le court délai imparti. Le risque que la décision humaine soit de plus en plus dépendante de “conseillers artificiellement intelligents” est donc réel, et pourra avoir de lourdes conséquences.
Cela augmentera premièrement le risque d’erreurs générées par les ordinateurs. Par exemple, que se serait-il passé si, en 1983, une machine intelligente avait remplacé le lieutenant-colonel soviétique Petrov ? Aurait-elle été capable de reconnaître une fausse alerte ? Une décision reposant uniquement sur des données fournies par une intelligence artificielle piratée que l’on croit fiable pourrait avoir des retombées dramatiques. Dans la prise de décision nucléaire, l’intelligence artificielle n’aurait alors pour effet que d’affaiblir volontairement l’autonomie et la capacité d’appréciation du décideur.
Un contexte global de cyber-insécurité
Ces intelligences artificielles, comme tout objet connecté, seront de surcroît vulnérables au piratage ou à la manipulation. Les armes nucléaires et leurs systèmes connexes présentent d’ores et déjà cette faiblesse. Des pirates pourraient par exemple accéder directement aux systèmes de d’alerte ou de communication pour manipuler, contaminer, corrompre l’information au sein des réseaux. Pourtant, les informations sur lesquelles s’appuient les systèmes nucléaires et leurs opérateurs représentent le vecteur de menace le plus direct, en temps de crise comme en temps de paix. En réalité, le seul fait de savoir que les systèmes nucléaires sensibles pourraient être compromis remet en cause la confiance en ces mêmes systèmes, indépendamment de l’ampleur ou de la nature de l’attaque.
Ces risques ne sont que des exemples parmi d’autres de ce que pourrait être l’interaction entre l’intelligence artificielle et les armes nucléaires. D’autres apparaîtront au fur et à mesure des avancées en matière d’intelligence artificielle et des choix stratégiques faits par les États en matière d’armement, de cyberdéfense et de cybersécurité. Pour éviter une guerre nucléaire, ces derniers devront prendre les bonnes décisions et se pencher sérieusement sur les nouvelles problématiques des cyber-risques et de l’intelligence artificielle.
Pour reprendre les propos du général John Hyten, commandant suprême des forces nucléaires américaines, il s’agira de créer des garanties pour que les humains demeurent pleinement ancrés dans le processus de décision nucléaire à l’heure où les systèmes pilotés par des intelligences artificielles seront pleinement opérationnels. La survie de la planète et de l’humanité en dépend.