En 2015, HRW publie un rapport, nommé “Mind the Gap : The Lack of Accountability for Killer Robots”. Ce rapport analyse le flou juridique qui existerait en cas de bavure commise par les armes létales, et prouve l’impossibilité de désigner un coupable dans un tel scénario. Julien Ancelin, chercheur en droit à l’université de Bordeaux, rejoint cet avis dans un article publié dans la revue des droits de l’Homme. Dans la loi, la désignation d’un coupable se fait selon deux critères, l’intention de commettre le crime (mens rea) et la réalisation de celui-ci (actus reus). Une arme létale autonome ne pourrait donc être désigné responsable d’une infraction selon ces rapports car dénué de libre-arbitre et donc incapable de comprendre l’étendue de ses actes. De plus, si les peines de responsabilités ont des caractères dissuasifs chez les humains (de part la réparation que doit effectuer le condamné en prison), cela ne serait pas le cas pour une arme létale autonome qui n’est qu’une machine.
Toutefois, Julien Ancelin imagine que dans le cas d’une responsabilité portée sur les personnes en arrière-plan de la machine, c’est-à-dire qui exercent un contrôle sur cette dernière , une récolte rigoureuse des données de la machine et une analyse permettraient d’écarter les incertitudes quant aux agissements de la machine et pourraient indiquer avec précision les infractions commises.
IEEE rejoint ce point de vue, et invite les ingénieurs système à sécuriser au maximum les données de la machine afin de limiter le risque de cyber-attaque, qui rendrait obsolète la possibilité de désigner un coupable à partir des données. L’organisme conseille également aux développeurs d’induire à la machine seulement des comportements qui peuvent être prévisibles et respectueux de l’article 36 de la Convention de Genève.
Marie-des-Neiges Ruffo rejoint lors de notre entretien le point de vue envisagé par Ancelin que la responsabilité (en cas d’une arme autonome mais contrôlée en partie par l’humain) devrait être portée sur tous les maillons de la chaîne, donc le développeur et le concepteur. Cependant, alors qu’Ancelin considère que les Etats seraient coupables seulement lors de violations graves des lois humanitaires, la philosophe pense que ceux-ci devraient être aussi en permanence responsables du moins moralement.
Quant aux Etats eux-mêmes, il apparaît deux camps lors de la Convention sur Certaines Armes Classiques de 2017. Un camp , dont fait partie la France, considère que les lois internationales sont déjà suffisantes pour désigner un responsable lors d’une infraction par un Système d’Armes Létales Autonomes, alors que d’autres mettent en évidence un vide juridique. De plus, la nécessité d’évaluer le degré d’autonomie des Système d’Armes Létales Autonomes ressort également, et des désaccords persistent sur la nécessité d’avoir un contrôle significatif de la machine par l’Homme, ce qui pourrait freiner ses capacités.
Vous avez parcouru toute la branche :