Le déploiement des armes létales autonomes pose des problèmes d’ordre moral. Dans son premier rapport “Losing Humanity”, HRW avance ainsi que les robots, de par leur manque de compassion, augmenteraient significativement le nombre de pertes humaines, notamment civiles, les humains faisant preuve systématiquement d’inhibition en temps de guerre. De plus, faire combattre des robots à la place d’humains (et donc réduire le nombre potentiel de morts) pourraient donner l’idée aux chefs militaires de déclencher plus facilement et plus fréquemment des conflits, le risque de perdre des soldats étant moindre. Dans ce cas là, le conflit se déplacerait dans le meurtre de civils. L’impact émotionnel de tels meurtres sur les responsables désignés serait moindre puisque ces derniers n’auront tué qu’indirectement.
Cependant, pour le politologue québecois Jean-François Caron, l’absence d’émotion des Armes Létales Autonomes est plutôt un avantage, car le stress, la fatigue et d’autres facteurs psychologiques sont autant d’éléments déclencheurs de conflits. De plus, envoyer des robots au front permet d’éviter la perte inutile de soldats qui étaient autrefois envoyés dans des missions-suicides.
La dimension éthique que prend la controverse sur les armes létales autonomes est également traitée d’un point de vue philosophique. Nous avons pu ainsi nous entretenir avec une philosophe, Marie-des-Neiges Ruffo, partisane de l’interdiction préventive des armes autonomes car selon elle, l’humanité n’est pas en capacité de créer un “robot tueur” éthique.
Pour continuer votre lecture, nous vous conseillons l’article suivant :
Vous pouvez sinon continuer à naviguer :