Comment rendre un robot éthique ?

Le but de créer des Armes Autonomes est, selon les forces Militaires et Gouvernementales, avant tout de limiter l’erreur humaine et réduire donc les pertes sur le champ de bataille. Pour certains ceci est déjà en train de prendre effet alors que pour d’autre un problème sous-jacent nécessite d’être adressé auparavant : l’éthique de l’arme. En effet certains acteurs tels que M.-d.-N. Ruffo, Noel Sharkey et Chantal Grut prétendent que le développement d’armes autonomes n’est pas utile si l’on ne peut instaurer une éthique dans le système de l’arme. Quelques acteurs pensent que l’on ne pourra jamais donner d’éthique à un robot, alors que d’autres le présentent comme un fait certain. Il y a donc divergence des pensées quant à la possibilité de rendre une arme autonome éthique.

Lors de notre entretien avec M.-d.-N. Ruffo, celle-ci nous a expliqué que selon elle une arme autonome non-éthique n’avait pas d’utilité (tout comme l’indiquait Chantal Grut en prenant en exemple les mines antipersonnel). Elle définissait une arme autonome éthique comme étant une arme capable de choisir ses propres buts ou objectifs (on parle de téléo-intérêts) tout en respectant une éthique spécifique. Par exemple : une arme éthique confrontée à un ennemi détenant un otage civil tirerait sur l’ennemi pour minimiser les pertes alors qu’une arme non-éthique ne ce souciait pas du bien-être de l’innocent (ici le civil) et tirerait sur les deux pour éliminer le problème. Ceci est selon elle un exemple simplifié, mais explicite la nécessité d’avoir un robot tueur fonctionnant avec une certaine éthique.

Dans l’idéal, il faudrait avoir des systèmes aussi performants que l’humain sur le point éthique, capables de distinguer parfaitement un civil d’un militaire. Cependant, nous sommes dans une situation où certaines nations n’ont pas les mêmes freins éthiques que les nôtres, et seront quand même capables de développer des Systèmes d’Armes Létales Autonomes non éthiques.

M.-d.-N. Ruffo

M.-d.-N. Ruffo a également mentionné les émotions et sentiments qui interviennent chez le soldat humain sur le champ de bataille et affectent ses décisions, ces émotions ont une influence non négligeable sur l’éthique du soldat. C’est pour cela que Ruffo affirme ne pas croire en des robots complètement éthiques : dépourvus de système nerveux et cerveau ils ne seraient pas capables de ressentir des sentiments et n’approcheraient donc jamais assez l’éthique humaine.

Pour d’autres comme Ronald Arkin il est certes nécessaire de développer des armes éthiques, mais cela est pour eux tout à fait faisable. Effectivement Ronald Arkin explique dans une de ses conférences Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture que les soldats humains étaient biaisés au niveau éthique car 28% des soldats de l’armée de terre Américaine faisant face à un dilemme éthique (ethical situation) ne savaient pas quoi faire (alors qu’ils avaient reçu un entraînement éthique). De plus 43% des soldats de l’armée de terre n’auraient pas dénoncé leur camarade s’il avait abusé des droits d’un prisonnier de guerre ou d’un civil. Arkin démontre ainsi l’inefficacité éthique d’un soldat humain, et prétend dès lors qu’une arme autonome éthique réglerait ces problèmes. Mais reste la question de la faisabilité de l’implantation d’une éthique dans un système d’arme autonome.

Ronald Arkin traite aussi la faisabilité, admettant qu’un robot n’est pas à l’abri de l’erreur et pourrait commettre un choix non-éthique :

I suspect that any decision structure that a robot is capable of instantiating is still likely to leave open the possibility that robots will act unethically.

Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Arhitecture

Mais il rétorque que ces erreurs auront toujours lieu dans le monde humain alors que dans le monde informatisé il existe plus de place pour la perfection :

It is the goal of this work to create systems that can perform better ethically than human soldiers do in the battlefield, albeit they will still be imperfect. This  challenge seems achievable. Reaching perfection in almost anything in the real world, including human behavior, seems beyond our grasp.

Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Arhitecture

D’autre part l’organisation IEEE (Institute of Electrical and Electronics Engineers) a publié un rapport en Avril 2017 expliquant les différentes avancées en IA possibles et faites de ce jour, tout en proposant des régulations des avancées technologiques possibles de ce jour. Dans ce rapport, IEEE explique que des robots éthiques pourront exister mais ne seront pas optimisés car le temps nécessaire à cette avancée est encore de longue durée.

FInalement d’autres acteurs tels HRW (par le biais de leur campagne Stop Killer Robots) et Stuart Russell prétendent qu’un robot tueur ne sera jamais éthique et que nous perdrons forcément le contrôle de ceux-ci (engendrant de multiples scénarios catastrophe). Ainsi pour ces acteurs donner une éthique à une arme autonome n’est non seulement impossible mais surtout inconcevable.

Nous remarquons ici encore une polarisation assez forte des points de vue des différents acteurs par rapport à l’incorporation d’une éthique dans une arme létale autonome. D’une part la technicité et faisabilité penchent vers une difficulté aigüe (IEEE est une communauté de scientifiques spécialisés dans l’IA et ce genre de problème, ils apportent donc la réponse véridique par rapport au problème de faisabilité), d’autre part les conséquences de l’introduction d’une éthique chez les robots divise la communauté scientifique ainsi qu’institutionnelle.

Vous avez parcouru toute la branche :