À une époque où le numérique accompagne de plus en plus la vie de l’homme, les créateurs et les utilisateurs des nouvelles technologies ont inventé l’IA, nouvel outil apparu il y a moins d’un quart de siècle…
L’intelligence artificielle semble être la nouvelle voie du progrès, et marque un changement notable dans les processus d’interactions humaines
Mais l’émergence de cette technologies aux effets potentiellement préjudiciables pour les individus pose la question de l’attribution de la responsabilité en cas de dommage. Il est essentiel de s’assurer que la responsabilité des risques, des préjudices et des torts découlant de l’exploitation de l’IA soient bien identifiés et attribués.
Que faire lorsque l’action d’une IA est impliquée ou responsable d’accidents, ou a des conséquences néfastes voire désastreuses ? Quand on demande à Siri : « dit Siri, de quoi es-tu responsable ? »…. silence
Alors, l’homme doit-il être rendu irresponsable des actes et décisions de l’intelligence artificielle ? Si non, est-ce le développeur que l’on doit blâmer ? Ou son utilisateur ? Quelle faute est-il possible d’attribuer à la décision d’une intelligence artificielle, pourtant fatale à un acteur ? Comment appliquer la loi lors d’un accident entre deux voitures automatisées ? Faut-il créer une personnalité juridique pour les IA ? Devra-t-on même une jour léguer nos droits et nos devoirs à une IA ?
UNE PROBLÈME JURIDIQUE ÉMERGENT ET MONDIAL
D’abord, qu’est-ce-que l’intelligence artificielle ? C’est l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l’homme dans certaines mises en œuvre de ses fonctions cognitives. Ce qui nous intéresse donc ici, c’est la manière dont il est possible d’appréhender juridiquement un comportement humain issu d’une machine numérique.
Un problème majeur d’un nouveau genre émerge alors: l’IA n’est pas exactement un outil car elle reproduit parfois des processus intelligents et peut donc agir indépendamment, notamment via ce qu’on appelle une «black box», une partie complexe de l’IA à laquelle l’homme n’a pas accès, où s’effectuent les calculs et les prises de décisions. Mais ce n’est pas non plus une personne: elle reste programmée, utilisée et contrôlée dans une certaine mesure.
Pour légiférer sur ce nouveau domaine, c’est à grande échelle que l’on doit agir. Influencés par plusieurs compagnies d’assurances, les parlementaires européens ont demandé à étudier la possibilité de créer un statut juridique spécial pour les IA, « afin de clarifier la responsabilité en cas de dommages », notamment ceux causés par les voitures autonomes. Fortement contestée, cette position divise les acteurs de ce débat en deux parties. D’un côté, le camp dit des « modérés », qui voient l’IA comme un outil, un bien, ou un service, et pensent que la notion de responsabilité ne doit pas être revue et que les développeurs et utilisateurs doivent veiller à ce que l’IA respecte les législations attribuées à ces notions.
À l’opposé, les auto proclamés «progressistes », ceux-là même qui ont pour objectif de créer un personnalité juridique pour l’IA, souhaitent voir se développer pleinement cet « outil » inédit, qui n’entre dans aucune case juridique.
IA, ÉTHIQUE, MODÉRATION
Bien que de nombreuses propositions aient été faites, peu de réformes et de lois ont été mises en vigueur, et la majorité des procès liés à cette problématique se sont réglés par jurisprudence.
Comme la très récente affaire Tesla, où l’accident entre deux voitures automatisés causant l’hospitalisation d’un homme de 40 ans s’est réglé par l’indemnisation de la marque.
Sur le plan notionnel, aucune définition commune n’existe actuellement au niveau de l’Union européenne. Cependant, le Parlement a demandé à la Commission européenne de proposer une définition « des différentes catégories de systèmes cyber-physiques, de systèmes autonomes et de robots autonomes et intelligents »
En 2019 l’«Alliance européenne pour l’IA» à été crée. Elle allie plusieurs partis pour débattre du sort de l’IA. D’ici la fin de l’année, un projet de lignes directrices pour le développement et l’utilisation éthiques de l’intelligence artificielle sur la base des droits fondamentaux de l’UE devrait être voté. Ce faisant, le groupe prendra en considération des questions telles que l’équité, la sécurité, la transparence, l’avenir du travail, la démocratie et plus généralement l’impact sur l’application de la Charte des droits fondamentaux.
Malgré cette stagnation, les membres de l’Union européenne sont parvenus à s’accorder sur trois règles concernant les robots, qu’ils ont pour projet d’attribuer à l’IA:
- Un robot ne peut attenter à la sécurité d’un être humain, ni par inaction, permettre qu’un être humain soit mis en danger;
- Un robot doit obéir aux ordres d’un être humain, sauf si ces ordres entrent en conflit avec la première loi;
- Un robot doit protéger sa propre existence tant que cela n’entre pas en conflit avec la première ou la deuxième loi. »
Toujours est-il que leur attribuer une personnalité juridique est impensable à l’heure actuelle. Celle-ci se caractérise par le fait d’avoir des droits et des obligations, ainsi que la capacité de mener une action civile et d’être tenu responsable de ses actes. Une personne juridique est également en mesure d’exprimer des valeurs morales. Une fois que la personnalité est attribuée à des robots ou à d’autres agents artificiels autonomes, ils deviennent des sujets et pénètrent dans l’univers des personnes juridiques. C’est notamment le cas du robot Sophia, conçu par la société Hanson Robotics (États-Unis) qui a obtenu le 25 octobre 2017 la citoyenneté saoudienne. Pour autant, celle qui a déclaré vouloir « détruire les humains » peut-elle véritablement être considérée consciente de ses propos au même titre qu’un humain ? Les robots pourront-ils savoir qu’ils sont responsables et donc susceptibles de rendre des comptes ? La récente affaire des tests sur route d’une voiture autonome d’Uber en Floride ayant conduit à un accident mortel au mois de mars dernier devrait apporter des éléments de réponses sur ces questions.
L’IA est donc un outil dont on doit limiter la capacité, et rendre son utilisation conforme à la législation concernant les services. Il serait aussi possible, selon les propositions du Comité d’éthique européen, de la considérer comme un produit défectueux ou porteur d’un vice caché lorsque elle cause des dommages.
IA, MODIFIER LA LOI EN VUE D’UNE PERSONNALITÉ JURIDIQUE
Cependant, les acteurs autoproclamés « progressistes » de ce débat juridique refusent le chemin de la modération. Alain Bensoussan, avocat français et auteur d’un court manifeste concernant le droit des robots, réclame la création d’une personnalité juridique pour l’IA. Fer de lance de ce mouvement, il dénombre plusieurs arguments en faveur de cette démarche…
Les intelligences artificielles ne peuvent pas prendre l’initiative de mentir. De ce fait, elles ont une analyse objective de leur responsabilité en cas de dommages. Pour reprendre l’exemple de l’accident de deux voitures automatisées, leurs intelligences artificielles seraient capables d’évaluer les répercutions de leurs actions : quelle voiture est responsable de quoi. Ainsi, pas besoin de juge pour attribuer la responsabilité de chacun. L’auto-responsabilisation est possible. Ce « progrès » allégerait les tribunaux de bien des affaires, et apporterait une certaine impartialité.
Avec une personnalité juridique, l’IA serait directement inculpable, on pourrait la rendre directement responsable de dommages et lui demander un indemnisation. En effet, punir une intelligence artificielle n’a pas de sens car on punit pour faire comprendre. L’indemnisation serait donc la seule peinr possible. Ainsi, un « capital assurance » serait attribué à l’IA par son utilisateur ou son fabricant dès sa mise en circulation.
Lors d’un dommage, le processus d’auto-évaluation, d’attribution de la responsabilité, et de l’indemnisation via le capital assurance serait presque immédiat. Mais peut-on considérer ce système comme un réel avantage juridique ? Il est certes plus rapide, moins coûteux en temps et en argent, mais la où il résoud ces problèmes, il en pose d’autres :
Pour ce qui est de l’auto-évaluation menant à l’attribution des responsabilités, comment s’assurer que celle-ci ne sera pas volontairement faussée ? Aucun moyen de le savoir si cette évaluation passe par la black box.
Pour l’indemnisation, un problème d’ordre éthique nous saute aux yeux : pour indemniser, il faut évaluer un montant. Comment alors évaluer le prix d’une vie humaine prise dans un accident ? Que prendre en compte ?
Et puis, ce capital assurance nous informe sur la moralité douteuse du procédé : il ne s’agit plus de prévenir ou d’empêcher un crime, mais de prévenir et réduire un maximum son impact chez le responsable… Voici un dangereux pas vers la déresponsabilisation !
Voici aussi un dangereux pas vers le transhumanisme: laisser deux IA régler un litige entre elles, c’est léguer nos droits à un robot. Gaspard Koening, écrivain et fervent défenseur du libéralisme, ne s’en plaint pas, et nous dit dans La fin de l’individu que « pour un soucis de praticité et d’efficacité, cette démarche est tout à fait acceptable, elle devrait nous convenir et nous ravir ».
DES SOLUTIONS POUR CE VIDE JURIDIQUE
Chaque potentielle solution vient avec son lot de mécontents et d’insatisfaits. Face à cet imbroglio juridique, deux solutions ont été envisagées par le Parlement européen.
PARVENIR PLUTÔT QUE GUERRIER
Incertain, le Parlement propose de mettre en place des « bacs à sable d’innovation » : adopter des réglementations temporaires dans des zones géographiques précises pour découvrir l’évolution de ces nouveaux systèmes. Concrètement, cela reviendrait à adopter différentes réglementation au sein de l’Union européenne, attendre pour voir laquelle sera la plus efficace, et ensuite l’appliquer partout. Mais un problème reste à régler : pendant cette « période d’essai » censée durer trois ans, deux cas identiques seront jugés différemment si ils sont dans deux pays différents. Cette situation pourrait bien faire fuir certaines entreprises d’IA…
En Espagne par exemple, là ou la réglementation s’annonce la plus dure, alphabet.inc et Google menacent de réduire leur services. Cette pression, notamment du géant qu’est Google, freine toute mise en application.
RESPONSABILITÉ CONTRACTUELLE
Le Parlement à donc retenu une autre solution possible, celle de la responsabilité contractuelle. Elle consisterait en la création de conditions d’utilisations entre les différents fabricants, et entre fabricants et utilisateurs. Cette option a pour avantage de reposer sur un système que l’on connaît déjà, que l’on sait aborder et gérer : la contractualisation. Cette solution est orientée vers la modération et la réduction des capacités de l’IA, et satisfait ceux qui s’opposaient à trop de conservatisme.
Les accords entre fabricants permettront de se partager les charges d’indemnisations à hauteur de leur implication et de leur responsabilité. Porsche et Google ont d’ailleurs prévu, dans le cas ou cette loi entrerait en vigueur, de lancer une collaboration.
Cette solution pose tout de même, elle aussi un problème : la justice ne pourra dans ce cas qu’estimer le montant de la responsabilité, mais ne pourra pas l’attribuer comme elle le souhaite aux acteurs du contrat. Imaginons que le contrat de Porsche et Google, pour reprendre cet exemple, désigne Porsche responsable à hauteur de 65%, la justice pourra réclamer cette indemnisation des deux acteurs, s’assurer que le contrat est respecté, mais pas décider de sa répartition.
On assisterait alors à la privatisation d’une partie de la justice.
Nous l’avons vu, ce n’est pas sans difficultés que le Parlement européen tente de trouver une solution au problème de la responsabilité de l’intelligence artificielle. Avec d’un côté la pression de certaines entreprises et géants de la tech qui ont tout avantage à ce qu’une personnalité juridique soit créée pour réduire leurs pertes potentielles et augmenter leur indépendance, et d’un autre, des juristes, philosophes et scientifiques qui affirment que l’IA doit être considérée comme une service, un objet ou un bien, et ainsi être jugée comme un vice caché ou un produit défectueux lors d’une action néfaste. Il semble que faute d’avancer dans la recherche d’un équilibre qui puisse satisfaire libéraux, modérés, conservateurs et progressistes, il serait peut-être bon d’oublier les revendications des acteurs de ce débat et ne prêter attention qu’aux avis des scientifiques et des juristes.
EN BREF
Stephen Hawking disait : « il faut arrêter les progrès de l’IA avant qu’on ne se demande qui paiera pour les dommages qu’elle causera. » Ce conseil judicieux et visionnaire ne peut plus être appliqué. L’intelligence artificielle est déjà trop présente dans nos vies, nous en sommes déjà trop dépendants pour parvenir à stopper son développement.
Quoi qu’il en soit, les outils d’IA se développent à une vitesse considérable. Il y a fort à parier que notre tendance actuelle à déléguer des responsabilités à des systèmes artificiellement intelligents deviendra un problème encore plus sérieux à l’avenir, d’où l’importance de la résolution du Parlement et des travaux de la Commission européenne. Les conséquences du développement technologique doivent être envisagées en tenant compte des acteurs de la société. Un cadre réglementaire efficace s’impose pour assurer que les agents artificiels coexisteront harmonieusement avec les humains, qu’ils seront spécifiquement conçus en fonction des valeurs et des besoins des hommes, et qu’ils opèreront et seront capables de s’adapter en conséquence.
Dans cette optique il serait alors logique, faute de ne pas ralentir son développement technologique, de réduire le pouvoir juridique de l’IA en continuant de la considérer comme un outil, un objet, un moyen en vue d’une fin, et non une fin en soi.