Bienvenue dans le monde des RLA, les “robots létaux autonomes”, des engins offensifs pilotés à distance et doués d’intelligence artificielle.
“Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.” Cette “loi de la robotique”, édictée en 1925 par l’auteur de SF Isaac Asimov, a du plomb dans l’aile. Donner à la machine le “droit de tuer”, où l’arme et le combattant ne font plus qu’un, est en effet un objectif très sérieux des grandes puissances militaires.
Depuis le mois d’avril, une campagne internationale – Stop Killer Robots – menée par des ONG, notamment Human Rights Watch, appelle à leur interdiction préventive. Quant à Christof Heyns, rapporteur spécial sur les “exécutions extrajudiciaires, sommaires ou arbitraires” auprès du Conseil des droits de l’homme de l’Onu, il réclame un moratoire immédiat sur les RLA. Dans son dernier rapport, il définit ces engins comme des “systèmes d’armes qui, une fois activés, peuvent sélectionner et attaquer des cibles sans intervention humaine”.
Les prototypes se multiplient
Si aucun de ces systèmes n’est encore opérationnel, le rapport Heyns évoque une demi-douzaine de prototypes, la plupart étant des drones volants améliorés. C’est le cas de l’X-47B (testé par la marine des États-Unis) ou du Taranis (Royaume-Uni), conçus pour riposter seuls face à une agression. Israël travaille sur le projet Harpy, pensé pour détecter et détruire des émetteurs radar. Il existe aussi des robots terrestres – tel le Techwin de Samsung, développé par la Corée du Sud pour surveiller sa frontière au nord –, guidés par infrarouge, pilotés par des soldats mais disposant d’un mode “automatique”. Russie et Chine ne seraient pas en reste, même si le secret est mieux gardé. Côté européen, le prototype de drone de combat Neuron, imaginé par Dassault et remarqué au dernier salon du Bourget, pourrait être un candidat sérieux.
“Sauver des vies”…
Les tenants de cette guerre robotisée avancent que cela pourrait paradoxalement “contribuer à rendre les conflits armés plus humains et permettre de sauver des vies dans les deux camps”. Il suffirait d’intégrer à la machine un “dispositif de contrôle éthique” (sic). Ce serait parfois plus fiable, pensent-ils, que de faire reposer la décision de tuer sur le seul jugement humain : “Un soldat qui n’est pas sûr de savoir si un inconnu est un combattant ou un civil risque de faire feu immédiatement, par instinct de survie, tandis qu’un robot pourra avoir recours à diverses tactiques pour s’approcher de cette personne et ne fera feu sur elle que dans le seul cas où elle lui aurait tiré dessus d’abord. Les robots ont ainsi la capacité d’agir avec prudence et de ne tirer qu’en riposte.”
… pour ménager l’opinion publique ?
A contrario, les opposants soulignent que les RLA ne seront jamais en mesure de “distinguer de manière fiable les combattants ou autres belligérants des civils”. Une machine ne sera, en outre, pas capable de refuser d’obéir à un ordre manifestement illégal ou inhumain. En matière de géostratégie militaire, les robots tueurs vont également changer la donne, en permettant à un pays de “livrer combat en échappant à la contrainte imposée par la réaction de l’opinion publique face aux pertes en vies humaines”. “Les RLA pourraient ainsi abaisser le seuil au-delà duquel les États partent en guerre ou ont recours à la force meurtrière”, avance le rapport Heyns.
Pour cet expert sud-africain, professeur de droit à l’université de Pretoria, il faut donc d’urgence un moratoire sur la production, l’exportation, l’acquisition et le déploiement de telles armes avant qu’un cadre juridique adéquat soit défini au sein des Nations unies. “Trois pays (États-Unis, Royaume-Uni et France) s’y sont engagés, explique Christof Heyns à Lyon Capitale. Ils n’appellent pas ça encore “ moratoire ”, mais c’est tout comme” – le gouvernement britannique l’a dit le 17 juin devant les Communes.
Cheval de Troie
Interrogé par nos soins sur sa doctrine en la matière, le ministère français de la Défense avance de simples “hypothèses de travail” sans vouloir en dire plus – ni sur le projet Neuron ni sur tout autre. Les États-Unis, le pays le plus avancé en la matière, se seraient engagés, fin 2012, à ne donner à un robot qu’une autonomie létale “supervisée” par un humain. Ce n’est pas l’avis de Grégoire Chamayou, auteur d’un ouvrage fouillé sur la question* : “C’est un procédé typique du cheval de Troie : faire accepter, au nom de la perspective éventuelle de robots tueurs éthiques, le développement des robots tueurs tout court.” Le professeur Heyns rappelle que les avions et les drones, en temps de guerre, étaient au départ employés uniquement à des fins de surveillance : “L’expérience a montré par la suite que, lorsqu’on dispose d’une technologie qui offre un net avantage sur l’adversaire, les premières intentions sont vite oubliées.”
Amnesty International, de son côté, soutient les conclusions du rapport Heyns mais juge déjà les RLA incompatibles avec le droit international. “Difficile, dans ce dossier, de soutenir un moratoire sans s’en prendre frontalement aux États-Unis, et à ses deux alliés, Royaume-Uni et Israël”, estime Aymeric Elluin, chargé de campagne Armes & impunité chez Amnesty France.
L’exemple américain au Pakistan
Le rapport Heyns est en effet une pierre de plus jetée dans le jardin de l’Oncle Sam. Ses drones armés, utilisés massivement au Pakistan dans des campagnes d’“exécutions ciblées”, font l’objet d’une investigation menée par un autre expert spécial de l’Onu, Ben Emmerson. Chargé du dossier “droits de l’homme et contre-terrorisme”, il doit rendre un rapport en octobre 2013 sur les conséquences des plus meurtrières attaques de drones de ces dernières années. Depuis 2004, rien qu’au Pakistan, les drones ont fait entre 475 et 891 morts parmi les civils (chiffres du Bureau of Investigative Journalism). “Si l’on se réfère à ce qui se passe actuellement avec les drones de combat, souligne le rapport Heyns, il y a lieu de penser que les États chercheront, entre autres usages, à employer les RLA pour des exécutions ciblées.”
Le professeur Heyns réclame aussi – tout comme le fit son prédécesseur, en 2010 – la création d’un groupe d’étude de haut niveau au sein du Conseil des droits de l’homme. “Ce groupe n’existe pas encore, conclut Christof Heyns. Même si je suis persuadé qu’il y a un large consensus sur le fait que c’est un problème très sérieux qui doit être pris en compte par la communauté internationale.”
-----
* La Théorie du drone, éditions La Fabrique, 2013.
-----
A lire :
-
(en français, avril 2013).
- Le rapport de Human Rights Watch, “Losing Humanity” (en anglais, novembre 2012)