Un regard lucide sur le mythe de l’IA : un chien robot blesse un joggeur – qui est responsable ?

En collaboration avec Thomas Probst, prof. em. de droit de la technologie (UNIFR) et membre de la plateforme thématique SATW « Mobilité autonome » ainsi que SATW membre Roger Abächerli, enseignant en technique médicale (HSLU), nous lançons une nouvelle rubrique portant sur les enjeux technologiques et juridiques liées à l’IA. Le 1er cas (encore) fictif : Robodog.

 

Il a récemment été rapporté sur les réseaux sociaux qu’un joggeur évoluant sur un chemin en bordure d’un cours d’eau avait été blessé par un chien robot au cours de sa sortie dominicale. Développé par un biotechnicien, le chien robot avait été entraîné pour se mouvoir en extérieur sans laisse (électronique). Le jour de l’accident, le biotechnicien effectuait une promenade avec son chien robot en vue de poursuivre son entraînement. Lorsque le joggeur qui se trouvait derrière a voulu le dépasser par la gauche, le chien robot s’est soudainement déporté vers lui pour éviter une grosse pierre qui se trouvait sur le chemin. Par réflexe, le joggeur a tenté de l’éviter, mais a tout de même effleuré le chien robot avant de perdre l’équilibre, de dévaler le talus bordant le cours d’eau et de heurter violemment un bloc de pierre avec la tête. La blessure à la tête a entraîné une diminution considérable des capacités cognitives du joggeur et, au final, une invalidité partielle.

Un politicien local a saisi la balle au bond pour illustrer la nécessité de définir un cadre légal en matière de responsabilité liée à l’utilisation de robots, étant donné que l’IA représente un véritable danger pour la société, que personne ne comprend véritablement ce qui se passe dans les réseaux neuronaux et que des « boîtes noires » ne sont pas acceptables d’un point de vue sociétal.

Mais ce point de vue est-il pertinent ? Comparer un chien robot (artificiel) et un chien (biologique) normal permet d’y voir plus clair.

Si le joggeur avait été blessé à la suite d’une chute provoquée par un labrador, c’est vraisemblablement le propriétaire de l’animal qui aurait été tenu pour juridiquement responsable. C’est lui qui supporte le risque et assume la responsabilité si une mauvaise réaction instinctive de son chien porte préjudice à autrui. Quiconque détient un chien est tenu de l’éduquer et de le dresser pour éviter qu’il ne mette en danger autrui ou ne lui porte préjudice. Selon les circonstances concrètes, le chien doit donc être tenu en laisse, voire porter une muselière, lorsqu’il est en extérieur. Pour déterminer la responsabilité du propriétaire du chien, ce qui s’est passé dans le cerveau du chien, à savoir dans son réseau neuronal est sans importance. Le comportement préjudiciable d’un chien est imputable à son propriétaire, quels que soient les processus biologiques et chimiques qui se déroulent dans la tête du chien. Par conséquent, le fait que le cerveau du chien représente une boîte noire non traçable, non transparente ne joue aucun rôle pour déterminer la responsabilité du propriétaire de l’animal.

Dans ce contexte, il est surprenant que les réseaux neuronaux artificiels soient souvent présentés comme des boîtes noires et qu’ils soient vus comme intrinsèquement dangereux pour la société, vu leur manque de transparence et de traçabilité. Une conclusion lucide s’impose : si depuis toujours, il n’est pas difficile de déterminer la responsabilité liée aux préjudices consécutifs à des processus non explicables dans le réseau neuronal biologique d’un chien, pourquoi des processus non transparents dans le réseau neuronal artificiel d’un chien robot poseraient-ils un problème pour déterminer la responsabilité en cas de dommages ? Dans les deux cas, c’est le propriétaire qui devra répondre du comportement préjudiciable de son chien ou de son chien robot.

Vu sous cet angle, le problème n’est pas le manque de transparence de certains processus dans les réseaux neuronaux, qu’ils soient biologiques ou artificiels, étant donné que dans les deux cas, l’imputation et la responsabilité doivent découler des mêmes principes, et ce pour des raisons de cohérence. La difficulté réside plutôt dans la tendance à vouloir appréhender et comprendre des phénomènes complexes tels que l’IA à partir de points de vue restreints de différentes disciplines scientifiques. Cette approche n’est ni efficace ni prometteuse. En d’autres termes, tant le labrador que le chien robot devraient de temps en temps partir en promenade avec leur propriétaire, avec ou sans laisse, en vue de nouer un dialogue commun.

Référence à la législation sur la responsabilité envers les animaux, art. 56 Abs.1 CO:

En cas de dommage causé par un animal, la personne qui le détient est responsable, si elle ne prouve qu’elle l’a gardé et surveillé avec toute l’attention commandée par les circonstances ou que sa diligence n’eût pas empêché le dommage de se produire.

Les articles de blog de cette série offrent une vision interdisciplinaire des développements actuels de l'IA d'un point de vue technique et des sciences humaines. Ils sont le fruit d'un échange récurrent et d'une collaboration avec Thomas Probst, professeur émérite de droit et technologie (UNIFR), et Roger Abächerli, membre de la SATW, chargé de cours en technologie médicale (HSLU). Avec ces contributions mensuelles, nous nous efforçons de fournir une analyse neutre des questions clés qui se posent en rapport avec l'utilisation de systèmes d'IA dans divers domaines d'application. Notre objectif est d'expliquer les différents aspects du thème de l'IA d'une manière compréhensible et techniquement solide, sans entrer dans trop de détails techniques.

Vers la série