Une exigence des robots soldats est qu’ils puissent interagir avec les hommes. En effet, les situations de combat nécessitent pour le combattant de pouvoir communiquer, interpréter les gestes de l’autre, qu’il soit allié ou ennemi. Le combattant va se retrouver dans des situations très délicates où ses actions dépendent de considérations tout à fait humaine : comment distinguer si un combattant ennemi est disposé à se rendre ou si il représente une menace ? Que faire face à un civil qui panique ? Ces questions trouvent chez le combattant humain des réponses naturelles. Programmer un robot à pouvoir analyser de telles situations est bien plus complexe.
Ceci représente évidemment un argument pour les anti-robots tueurs qui voient dans le manque de discernement d’un algorithme de potentiels dangers. Mais certains pensent au contraire que le manque d’humanité d’un robot peut être un avantage sur le terrain, face à un humain qui aura plus tendance à répondre à l’émotionnel, et risque ainsi de se mettre en danger par peur ou compassion. Le robot, inversement, obéit strictement à sa programmation. De plus, le robot pourrait même avoir une dimension éthique, comme le suggèrent des chercheurs de l’Institute for Ethics and Emerging Technologies à l’Université de Turin, en prenant la place d’un humain qui ne risque ainsi plus sa vie. Le système d’armes létales autonomes donnerait ainsi à la guerre une dimension paradoxalement plus humaine en diminuant les pertes humaines.
La présence d’une arme létale autonome au milieu d’une unité d’hommes peut également causer des soucis au niveau des relations avec son unité. En effet, il n’est pas impossible pour un homme de s’attacher à un objet, et c’est d’autant plus facile lorsqu’il s’agit d’un robot que l’on peut facilement associer à un animal, si ce n’est un humain. Ce type d’attachement est selon Brice Erbland, auteur de Robots Tueurs dangereux, d’autant que le robot a un rôle sacrificiel comparé aux hommes, dont la vie n’a pas de prix.
Un autre aspect de ce rapport à l’homme, et sans doute le plus important, va être le rapport du robot à la mort. En effet on accorde au robot le droit de tuer des humains, ce qui pose un grand problème éthique.
Le fait de tuer un autre homme au combat est une expérience marquante, parfois traumatisante. En la confiant à un robot, on ôte à l’homme le poids d’avoir tué un autre. Cependant, on peut se demander si cela ne pose pas un problème de responsabilité : Qui est responsable du meurtre ? Peut-on donner un tel pouvoir à un robot ? Qui est responsable si le système fait une erreur, tue un de ses camarades par inadvertance ?
Pour continuer votre lecture, nous vous conseillons l’article suivant :
Vous pouvez sinon continuer à naviguer :