Depuis les avancements récents en développement de drones autonomes considérés par certains comme étant des armes autonomes, la question se pose de comment définir ces SALA (Systèmes d’Armes Létales Autonomes). La communauté scientifique aussi bien que politique est assez divisée à ce sujet. En effet les acteurs dans cette controverse définissent chacuns à leur manière ces armes : la définition même des Armes Létales Autonomes est à débattre. Certains acteurs allouent plus d’importance à l’autonomie de ces Systèmes d’Armes, et la porte comme critère de définition. Néanmoins une autre partie importante des acteurs choisissent de définir ces Armes Autonomes sur le critère de leur éthique et capacité à faire des choix que l’on voit comme justes et corrects.
Premièrement, à travers la lecture de nombreux articles on remarque que le critère principal utilisé pour distinguer un Système d’Armes Létales Autonomes d’une arme banale est son autonomie. Or ce sujet divise lui-même ceux qui le traitent. Effectivement, certains individus comme Chantal Grut (International Legal Consultant, Rosenstock Legal Services, Kabul, Afghanistan) dans son Journal of Conflict & Security Law exposent trois types d’autonomies qui définissent elle-mêmes une arme létale autonome :
- Les armes totalement autonomes : aussi appelées armes avec humain hors de la boucle, ce sont des armes qui incorporent un haut niveau d’IA (Intelligence Artificielle) et qui sont capables de choisir leur propre plan d’action pour atteindre un but final désiré.
- Les armes avec humain sur la boucle : pour ces armes l’homme est présent mais joue un rôle passif. Il supervise en quelque sorte et est capable d’intervenir si besoin (prendre la décision de tirer par exemple).
- Les armes avec humain dans la boucle : ce sont des armes où l’homme joue un rôle actif, il prend la décision de tirer, et contrôle le fonctionnement de l’arme. Celle-ci ne requiert pas une intervention constante de l’homme contrairement à ce que son nom indique (elle peut être autonome dans le sens où elle identifie et suit ses cibles mais demande une autorisation de tir).
Grut en donne d’ailleurs quelques exemples : le Système PHALANX Américain programmé pour abattre des missiles anti-navires en pleine mer (voir ci-dessous), ainsi que les mines antipersonnel et les robots sentinelles placés à la frontière coréenne. Ces trois armes sont considérées comme totalement autonomes par Grut mais celle-ci met en évidence la diversité fonctionnelle de ces trois armes : la seule définition d’autonomie selon elle ne suffit pas, un critère éthique doit s’y ajouter pour pouvoir définir une Arme Autonome.
D’autres nient complètement leur existence tel Yoram Dinstein (professeur émérite à l’Université de Tel Aviv), prétendant que :
De toute évidence, les robots d’IA ne se profilent pas à l’horizon et il ne semble pas y avoir d’urgence particulière dans la résolution des conséquences de leur action supposée.
The Principle of Distinction and Cyber War in International Armed Conflict
Lors de notre entretien avec Marie-des-Neiges Ruffo, celle-ci a souligné la distinction à faire entre “Autonomie” et “Automatisation”, qui donnaient chacune une définition différente d’une arme autonome :
Beaucoup de systèmes sont autonomes en tant qu’argument de vente, c’est à dire qu’il sont présentés comme autonomes alors qu’il sont en fait automatiques.
La campagne Stop Killer Robots de Human Rights Watch (HRW) donne elle comme définition d’arme autonome toute arme ne faisant intervenir aucun contrôle humain lors de son fonctionnement. Mais ils ne font figurer dans leur vidéos de campagne que des armes ressemblant à des drones libre de commande humaine.
Ainsi chaque acteur de la controverse définit de manière différente une Arme Létale Autonome, se basant avant tout sur l’autonomie de cette arme. Pourtant d’autres acteurs s’attardent plutôt sur un caractère éthique lié à la létalité de l’arme. Par exemple M.-d.-N. Ruffo considérait que les armes n’étaient des Armes autonomes que si elles étaient dotées d’une éthique. Ainsi la mine antipersonnel qui pour Grut était autonome ne l’est plus pour Ruffo car cette arme n’est pas capable de faire la distinction entre un soldat et un civil. Il y a donc un écart entre les deux définitions d’un Système d’Armes Létales Autonomes données par Grut et Ruffo. Ceci s’étend de même à Human Rights Watch, etc.
Toutes ces nuances construisent ensemble ce que l’on définit comme “Arme Létale Autonome”. Il n’y a pas donc une seule définition mais déjà un débat sur ses caractéristiques.
Pour continuer votre navigation deux options s’offrent à vous :
Pour continuer votre navigation deux options s’offrent à vous :