La question du meurtre est centrale dans la controverse des armes létales autonomes : peut-on déléguer à une machine un pouvoir de vie ou de mort ?
Cette perspective est un des arguments phares des opposants à ces systèmes, qui y voient la plus grande source de risque, mais également une perte de la dignité humaine.
Une observation faite par Brice Erbland est que le soldat a tendance à lier un lien avec sa victime. Plus il en est proche et qu’il la voit, qu’il la suit, plus son ressenti de l’acte de la tuer sera marquant. Cette observation implique donc que personne dans le cadre des armes létales autonomes, ne porte réellement la responsabilité moral de la mort d’un homme, personne ne vivant véritablement l’acte de donner la mort. Cette perte de responsabilité morale se retrouve également dans la multiplicité des acteurs qui sont commandent le robot tueur : de l’ingénieur qui a créé le robot à l’officier qui a donné l’ordre en passant par le programmateur, personne ne peut véritablement porter la charge du meurtre.
Ceci pose selon l’IHRC (International Human Rights Commission) de graves problèmes de droit international. Dans le rapport Mind the Gap, the Lack of Accountability of Killer Robots, Human Rights Watch explore les conséquences de cette perte de responsabilité, en particulier les difficulté judiciaires en cas de dysfonctionnement (si l’arme tuait un civil par exemple). Selon le site StopKillerRobots, les condamnations seraient alors plus rares, encourageant l’usage de ces armes.
Mais outre l’aspect judiciaire, remettre cette responsabilité au robot aurait selon Goose, auteur de The growing international movement against killer robots dans l’Harvard International Review, des conséquences morales très importantes.
Fully autonomous weapons would also undermine human dignity, because as inanimate machines they could not understand or respect the value of life, yet they would have the power to determine when to take it away
Goose, 2017
Goose met ainsi au centre de la problématique la dignité humaine, comme victime de l’arme létale autonome autant que la personne tuée. Cependant, on peut s’interroger sur cette rhétorique, comme le fait Amanda Sharkley dans Autonomous weapons systems, killer robots and human dignity. Selon elle, ce lien entre le fait d’être tuer par un robot et l’atteinte à la dignité humaine n’est pas forcément évident, et elle met en avant le fait que cet argument soit central pour la campagne StopKillerRobots car il joue en leur faveur.
La question de la responsabilité individuelle est centrale dans la controverse sur les systèmes d’armes autonomes, car non seulement elle soulève de réelles problématiques judiciaires et morales, mais elle est de plus utilisée comme argument par les partis qui interviennent dans la controverse.
Vous avez parcouru toute la branche :