Extrait de l'entretien d'Anaïs Avila, pour le livre collectif CODE IA, 2021 : https://www.georg.ch/livre-code-ia
Avec la généralisation de l'usage de l'IA dans toutes sortes de domaines, allant de la voiture autonome à la médecine de précision, en passant par la maintenance prédictive et la gestion du trafic aérien, un enjeu nouveau apparaît : celui de la responsabilité en cas de préjudice causé par une IA.
L'ordre juridique suisse, comme celui de la plupart des pays avancés, n'apporte pas de réponse claire à cette question. Comme une IA est immatérielle (software), mais incorporée dans des machines (hardware), il est difficile d'en extraire son comportement spécifique au-delà de l'action qu'elle co-commande avec l'homme. Son autonomie grandissante (co-apprentissage) va la rendre de jour en jour plus autonome de l'action humaine. On l'a bien vu avec le jeu de go où les logiciels d'AlphaGo puis d'AlphaGo Zero se sont complètement détachés de l'action de l'homme.
Entretenons-nous avec Anaïs Avila, diplômée de l'université de Erbourg (bachelor en droit) et de l'université de Genève (master en droit et certificat de droit transnational), qui a rédigé son mémoire de master sur cette thématique afin d'y voir plus clair :
Qu'est-ce que la responsabilité civile en cas de préjudice de manière générale?
De manière générale, la responsabilité civile désigne « l'obligation faite à une personne de réparer le préjudice causé à autrui ». La fonction première du droit de la responsabilité civile est ainsi de compenser le préjudice subi par le lésé. Le but est de remettre ce dernier dans la situation dans laquelle il aurait été si l'événement dommageable ne s'était pas produit. La seconde fonction du droit de la responsabilité civile se veut préventive. En effet, l'obligation faite aux responsables de réparer les préjudices qu'ils causent incite tout un chacun à se comporter avec diligence. En revanche, le droit de la responsabilité civile n'a pas pour but de punir le responsable. Cette fonction punitive appartient au droit pénal.
Pour un dommage causé par une IA... qui tranche en cas de conflit (aujourd'hui et demain)?
De nos jours, les assurances jouent un rôle primordial dans le règlement des litiges. Ce n'est plus le responsable qui indemnise directement le lésé, mais son assureur responsabilité civile. On peut alors penser que la fonction préventive du droit de la responsabilité civile évoquée ci-dessus est vidée de sa substance, mais pas complètement, puisque l'assureur responsabilité civile peut augmenter les primes ou même recourir contre le responsable en cas de faute.
En cas de litige, ce sont les tribunaux qui tranchent, lesquels se réfèrent souvent aux conditions générales figurant dans le contrat d'assurance. Or, les contrats d'assurance contiennent parfois des clauses contraires aux principes de la responsabilité civile, ce qui a pour conséquence que l'indemnité due au lésé se trouve injustement réduite. Il en ira de même à l'avenir. En cas de dommage causé par une IA, les assurances joueront d'autant plus un rôle considérable et il appartiendra aux tribunaux de régler les conflits.
Y a-t-il en Suisse une loi spécifique sur la question de la responsabilité de l'IA en cas de préjudice?
Non, il n'existe, à ce jour, aucune loi spéciale dédiée à l'IA en Suisse. Conscient de l'importance de la question, le Conseil fédéral, dans ses lignes directrices sur l'IA émises le 20 novembre 2020, a constaté la nécessité « d'établir clairement la responsabilité lors de l'utilisation de l'IA ».
Pour l'heure, l'IA est une chose immatérielle dépourvue de personnalité juridique et de patrimoine, de sorte qu'elle ne peut être tenue pour responsable de ses actes. Il faut donc appliquer les régimes de responsabilité civile existants, en tentant de les adapter aux circonstances. Parmi ceux-ci, le régime de la responsabilité du fait des produits défectueux, instauré par la directive européenne sur la responsabilité du fait des produits défectueux, que la Suisse a reprise de façon autonome dans la loi sur la responsabilité du fait des produits (LRFP), permet actuellement de rechercher le producteur en responsabilité en cas de préjudice causé par un défaut de son produit; encore faudrait-il que tous les logiciels soient considérés comme des produits au sens de la LRFP.
De manière générale, le régime de la responsabilité du fait des produits défectueux permet d'appréhender les nouveaux risques de dommages induits par le développement de l'IA. Toutefois, pour être totalement efficace et adapté aux nouvelles technologies numériques, il paraît indispensable de préciser certaines notions, notamment celles de «produit», de « défaut» et de « producteur». C'est la raison pour laquelle des discussions sont actuellement menées au sein de la Commission européenne pour réviser la directive européenne sur la responsabilité du fait des produits défectueux afin qu'elle soit mieux adaptée au monde numérique. En effet, dans sa résolution du 20 octobre 2020 contenant des recommandations à la Commission sur un régime de responsabilité civile pour l'IA, le Parlement européen invite la Commission à réviser la directive sur la responsabilité du fait des produits.
En parallèle du régime de responsabilité du fait des produits, le Parlement européen propose la mise en place d'un régime de responsabilité objective à charge de l'opérateur d'un système d'IA à haut risque.
Cette proposition, sur laquelle nous reviendrons, pourrait servir de source d'inspiration au législateur suisse.
À vos yeux, faudrait-il une telle loi?
Oui, il faut créer un encadrement juridique des systèmes d'IA. Un encadrement juridique qui ne bride pas l'innovation, mais qui offre une protection efficace aux potentielles victimes.
Tout est une question d'équilibre.
La complexité, l'opacité, la capacité d'apprentissage et l'autonomie des systèmes d'IA, ainsi que la multitude d'acteurs qui contribuent à leur développement constituent un véritable défi pour le droit de la responsabilité civile au niveau international. Il paraît donc urgent de légiférer pour éviter que des personnes ayant subi un préjudice ne se retrouvent sans indemnisation.
L'intense production de cadres éthiques de l'IA à laquelle nous assistons ces dernières années n'est donc pas étonnante. Ces textes visent à promouvoir un développement responsable de l'IA, en rappelant les droits fondamentaux des êtres humains et en listant des principes que les concepteurs d'algorithmes devraient respecter, tels que la transparence, l'explicabilité, le respect de l'autonomie humaine, la qualité des données et la sécurité. Aussi louables soient-ils, ces cadres éthiques, dépourvus de sanctions, ne seront probablement pas suffisants; d'où la nécessité d'un encadrement légal strict seul à même de s'imposer à tous de manière contraignante.
Consciente de cette nécessité, la Commission européenne a dévoilé, le 21 avril 2021, le tout premier cadre juridique sur l'IA. Ce projet de règlement, de plus de 100 pages, vise à garantir la sécurité et les droits fondamentaux des citoyens.
Sommes-nous, en Suisse, préparés à une telle loi?
Non, sans doute pas. Le risque est d'avoir soit un temps d'avance, soit un train de retard, compte tenu de la célérité des innovations. Il n'en demeure pas moins qu'au vu des avancées législatives au niveau européen, la Suisse ne saurait tarder à adopter sa propre législation sur l'IA.
L'IA intervient dans tous les secteurs du droit, allant de la régulation des véhicules autonomes à la protection des données, en passant par le droit de la responsabilité et des assurances, au droit des contrats jusqu'à la propriété intellectuelle. Il est donc difficile d'en extraire une vue d'ensemble, dans la mesure où cette technologie déploie des effets très spécifiques dans tous les domaines. Il en résulte un enchevêtrement de régimes juridiques potentiellement applicables, lesquels devront nécessairement subir des ajustements pour être adaptés à l'IA.
La question qui se pose est celle de savoir s'il faut créer une loi générale dédiée a l'A ou s'il faut intervenir par secteur. En fait, les deux solutions sont envisageables et l'une n'empêche pas l'autre. En effet, on pourrait imaginer la création d'une loi générale listant tous les principes de base à respecter en matière d'IA, parallèlement à plusieurs lois spéciales adaptées à chaque secteur potentiellement impacté par l'usage de l'IA.
En tout état de cause, il paraît préférable et plus raisonnable d'avoir un temps d'avance et d'anticiper les risques liés à l'IA, quitte à procéder aux ajustements nécessaires par la suite, que d'attendre que des incidents ne se produisent, sous prétexte de ne pas avoir le recul nécessaire.
Par Anaïs Avila, un extrait du livre CODE IA, pour le Manufacture Thinking