Les robots sont-ils responsables devant la justice?

L’intelligence artificielle occupe une place toujours plus importante dans notre société. Mais les robots sont-ils responsables devant la justice?

Si on en croit les Trois lois de la robotique, telles que formulées par Isaac Asimov, nous ne devrons jamais avoir peur des robots. Pour rappel:

  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Les lois de la robotique et les robots tueurs

Sauf que dans les faits, cela semble de plus en plus difficile à l’avenir d’imaginer que ces lois (formulées en 1942, tout de même) seront suivies à la lettre. Elles ont d’ailleurs déjà été franchies à une reprise dernièrement: un « robot-bombe » a été utilisé aux États-Unis pour abattre l’auteur d’une fusillade à Dallas en 2016.

C’était la première fois, officiellement, qu’un robot était utilisé pour tuer un être humain sur le sol américain. L’utilisation des robots dans ce cas par la police avait été pointée du doigt dès 2014 par l’ONG Human Rights Watch, qui s’inquiétait du fait que les robots « ne sont pas dotés de qualités humaines, telles que le jugement et l’empathie, qui permettent à la police d’éviter de tuer illégalement dans des situations inattendues ». 

Vu la place de plus en plus importante des robots dans notre société, ce genre de situation risque de se reproduire. Sur les champs de bataille, les « robots tueurs » pourraient aussi prendre la place de soldats à l’avenir: de nombreuses firmes ont déjà des prototypes prêts à l’emploi. Peut-être même qu’à l’avenir, un humain n’aura pas besoin d’appuyer sur un bouton pour qu’un robot commette un crime ou un méfait et qu’il le fera sciemment, en ayant lui-même analysé la portée de son acte.

Oui, cela peut ressembler à de la fiction ou au scénario d’un film comme I, Robot, sorti en 2004 avec Will Smith à l’affiche, dans lequel un robot doté d’une capacité de réflexion avait tué un humain et fait passer cela comme un suicide. La multiplication des robots autonomes va également poser différents problèmes: comment faire quand une voiture sans conducteur provoque un accident? Dans le cas où cela se produit, vient alors une question: le robot en question peut-il être condamné par la justice? Et si oui, doit-il l’être et mis en prison, comme un être humain?

© iStock

Condamner les robots ou les créateurs des robots

La réponse est pour l’instant claire: non, un robot ne peut pas être condamné par la justice, que ce soit en Europe, aux États-Unis ou ailleurs dans le monde. La Corée du Sud a créé dès 2007 une « charte éthique » pour les robots, afin d’éviter que les robots se fassent abuser par les hommes… et inversement. Au Royaume-Uni, il existe aussi un document appelé : « Robots and robotic devices. Guide to the ethical design and application of robots and robotic systems », qui rassemble des recommandations aux créateurs de robots. Mais ces textes n’ont pas valeur de loi.

Bien sûr, le monde n’attend pas qu’un robot commette un crime pour trancher cette question. L’Union européenne a voté en février 2017 la mise en place de règles éthiques « en vue d’exploiter pleinement leur potentiel économique et garantir un niveau standard de sûreté et de sécurité » concernant les robots. Comprendre: eux aussi auront un cadre légal à respecter. L’UE explique notamment vouloir « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables de réparer tout dommage causé à un tiers ; il serait envisageable de considérer comme une personne électronique tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers ».

Car deux « écoles » s’affrontent ici: ceux qui veulent créer un statut juridique pour le robot pour pouvoir condamner « la machine » et ceux qui sont plutôt pour condamner les personnes qui sont censées œuvrer derrière les machines, qui sont à la base de sa création. Et les deux camps ont de solides arguments à faire valoir, notamment ceux qui sont opposés au statut juridique.

Le camp des « contre » un statut juridique pour les robots

Pour Nathalie Nevejans, auteure du Traité de droit et d’éthique de la robotique civile, offrir un statut juridique aux robots ne serait pas l’idéal. « Une telle solution risquerait de déresponsabiliser le fabricant du robot à chaque fois que celui-ci cause un dommage. Il ne serait plus tenu d’indemniser lui-même les victimes. Ensuite, ce serait envoyer un signal fort d’un changement de paradigme, puisque le robot passerait d’un statut d’outil – dont l’homme dispose librement – à celui d’acteur juridique. D’une manière générale, je trouve que le fait de s’attarder sur la personnalité juridique du robot risque de nous faire passer à côté des grandes problématiques… », explique-t-elle au Point.

En avril dernier, 208 experts, professeurs, chercheurs et doctorants européens ont signé une lettre ouverte pour s’opposer aussi au statut juridique pour les robots. « Un statut juridique pour un robot ne peut pas découler du modèle de la personne physique, puisque le robot aurait alors des droits humains, tels que le droit à la dignité, le droit à son intégrité, le droit à la rémunération ou le droit à la citoyenneté, s’affrontant ainsi directement avec les droits de l’Homme. Cela serait en totale contradiction avec la Charte des Droits fondamentaux de l’Union européenne et la Convention de sauvegarde des droits de l’Homme et des libertés fondamentales », argumentent-ils

Pour les signataires de cette lettre ouverte, l’Union européenne doit « encourager le développement de l’industrie de l’intelligence artificielle et de la robotique pour limiter les risques sur la santé et assurer la sécurité des êtres humains. La protection des utilisateurs de robots et des tiers doit être au cœur de toutes les dispositions légales de l’UE » et aussi « créer un cadre applicable pour le développement de l’IA et la robotique innovant et fiable, dans l’objectif de créer de grandes avancées pour les peuples européens et le marché commun ».

Pas encore d’actes de la part de l’Union européenne

Beaucoup de belles paroles, mais qui ne sont pas suivies d’actes pour l’instant. L’UE n’a toujours pas légiféré sur le statut juridique des robots. Et le temps presse. « La société se trouve dans une période charnière où elle doit s’interroger sur son devenir. Les choix d’aujourd’hui poseront les bases du monde de demain,  et il sera très difficile de revenir en arrière. Si nous ne voulons pas vivre dans un monde déshumanisé, nous devons instaurer des règles pour contenir les dérives afin de ne retenir que les bienfaits apportés par la robotique, à l’image des prothèses bioniques qui révolutionnent la vie des personnes handicapées », expose Nathalie Nevejans.

Des réponses sont attendues rapidement. Une voiture autonome d’Uber a tué pour la première fois une personne en la percutant en mars. La société a stoppé son programme de voitures autonomes et une décision de la justice est attendue. Difficile d’imaginer Uber éviter une condamnation dans cette affaire particulière: si le robot a sciemment choisi de ne pas éviter la personne selon les conclusions de l’enquête, comment la justice pourrait le condamner ici? Qu’en sera-t-il également si un jour un robot commet un crime qui ne sera pas un accident comme ici, voire un vol ou un autre délit? Va-t-on avoir le droit à des « prisons » pour robots? Autant de questions pour l’instant sans réponse. Et en attendant, les robots ne sont pénalement pas responsables devant la justice.

Retrouvez notre article sur les métiers les mieux protégés face à la robotisation

Plus