Avant de chercher à décider de l’autonomie que l’on donnerait ou non à une machine, il convient de s’attacher à définir cette autonomie. Quelles sont ses principales conditions ? Existe-t-il une condition sine qua non à ce caractère si humain ?
La question est épineuse et constitue à elle seule un point de controverse à part entière.
La définition de l’autonomie dépend de nombreux paramètres : la tâche à accomplir, la durée de l’autonomie proprement dite, ou même simplement la profession de la personne qui donnera cette définition !
Nous avons interrogé Marie-des-Neiges Ruffo, philosophe et spécialiste du sujet, afin d’en savoir un peu plus
Une première définition très naïve serait selon elle de ne parler d’autonomie qu’en termes de durée de vie de la batterie. Un drone ne serait autonome que pour quelques heures, tant qu’il peut fonctionner sans être dépendant d’une source d’énergie extérieure.
Une seconde définition serait de penser l’autonomie en termes d’absence de contrôle humain. C’est ici l’approche d’un ingénieur. Un robot ne serait autonome que lorsqu’il serait capable d’effectuer des tâches sans contrôle humain de quelque sorte que ce soit. Une telle machine peut être autonome pour certaines tâches mais pas pour d’autres. Toujours avec l’exemple du drone, ce dernier peut être autonome pour la phase de vol uniquement ou bien, plus complexe, pour les phases de décollage et d’atterrissage… ou pour la phase de tir.
Une autre définition, celle du philosophe, éclaire la notion d’autonomie d’une lumière nouvelle. L’autonomie, c’est la capacité à se fixer ses propres principes et à s’y tenir, s’y conformer.
Il va sans dire que cette ambiguïté pose de sérieux problèmes lorsqu’il s’agit de débattre. Ce qui est de l’autonomie pour un ingénieur n’est perçu que comme de l’automatisation par les philosophes et les éthiciens ; ces derniers vont jusqu’à parler d’autonomisation.
Problèmes éthiques posés par le remplacement de l’humain par des robots : le cas des systèmes d’armes autonomes
Un autre problème est posé par ceux qui contestent le caractère nouveau de cette technologie. Pour ces personnes, les armes létales autonomes existeraient depuis longtemps ; une mine antipersonnel peut par exemple être considérée comme autonome.
Grut, C. (2013). The Challenge of Autonomous Lethal Robotics to International Humanitarian Law. Journal of Conflict and Security Law, 18(1), 5‑23. [Lien biblio]
Dans la vie civile, donner de l’autonomie à des robots pose déjà problème : qui tenir responsable en cas d’accident ? Le propriétaire ou utilisateur, comme pour les animaux dans la loi française ? Le constructeur ? Le robot lui-même. La question des voitures autonomes est déjà très épineuse. (voir Responsabilité et pénalité)
Dans le domaine militaire, c’est encore pire, dans la mesure où il s’agit de causer volontairement la mort d’un ou plusieurs êtres humains.
Pour continuer votre lecture, nous vous conseillons l’article suivant :
Vous pouvez sinon continuer à naviguer :