Les systèmes autonomes d’armes létales (SALA) ou « robots-tueurs » permettraient, dans les conflits armés, de sélectionner et d’éliminer des cibles grâce à l’intelligence artificielle et sans aucune intervention humaine. Malgré les affirmations des partisans de cette technologie, rien ne garantit que cette sélection des cibles s’effectuera dans le respect du droit international humanitaire, qui exclut les civils et les non-combattants des cibles autorisées. En cas d’élimination de cibles non autorisées, il sera impossible de poursuivre quiconque pour crimes de guerre. D’autres armes, telles que les lasers aveuglants, ont été interdites préventivement car il était impossible d’en réglementer l’emploi dans le respect du droit international humanitaire.
A Genève viennent de s’achever des discussions dans le cadre de la Convention sur certaines armes classiques (ou « armes inhumaines »). Cette Conférence d’examen quinquennale, présidée par la France, a notamment abordé la question d’un nouveau traité international d’interdiction préventive des SALA. Un tel traité est réclamé par la plupart des pays et des ONG, regroupées dans la Campagne « Arrêtez les Robots-Tueurs » à laquelle notre organisation Initiatives pour le Désarmement Nucléaire – IDN a adhéré. Malheureusement, quelques pays technologiquement avancés, dont la France, continuent de s’opposer à une telle interdiction. IDN demande, comme les autres organisations de la société civile, que cette option soit adoptée lors de la prochaine réunion du Groupe d’experts gouvernementaux en 2022. Comme elle l’a montré dans son récent rapport sur l’impact des nouvelles technologies sur la stratégie nucléaire, IDN se préoccupe des éventuelles applications hostiles et déstabilisantes de l’intelligence artificielle.