top of page
Anaïs Avila

La responsabilité civile d'une IA... c'est quoi ?

Extrait de l'entretien d'Anaïs Avila, pour le livre collectif CODE IA, 2021 : https://www.georg.ch/livre-code-ia


La responsabilité civile d'une IA fait référence à la responsabilité propre de l'IA, c'est-à-dire que l'IA serait personnellement, directement et pleinement responsable de ses actes. La responsabilité civile d'une IA n'existe pas (encore) à ce jour, puisqu'il faudrait que l'IA soit dotée d'une personnalité juridique. En effet, seules les personnes au bénéfice d'une personnalité juridique, à savoir les personnes physiques et morales, peuvent être appelées à répondre des effets de la responsabilité civile.


L'opportunité de la création d'une personnalité juridique d'un « troisième type» a déjà fait couler beaucoup d'encre. En effet, compte tenu de l'autonomie décisionnelle et de la capacité d'apprentissage des systèmes d'IA, certains auteurs, dont Alain Bensoussan notamment, prônent la création d'une personnalité électronique. L'idée est d'attribuer aux systèmes d'IA un statut juridique, comme on l'avait finalement fait à l'époque de la première révolution industrielle pour les personnes morales.


Selon les partisans de la création d'une personnalité juridique d'un « troisième type», attribuer un statut juridique aux systèmes d'IA permettrait de simplifier la recherche d'un responsable, puisqu'ils seraient considérés comme des personnes pleinement responsables de leurs actes.

On passerait ainsi «d'une responsabilité du fait de l'IA à une responsabilité de l'IA». À l'image de la personne morale, l'idée serait d'enregistrer les systèmes d'IA dans un registre public et de les doter d'un capital, grâce auquel ils pourraient indemniser les victimes auxquelles ils auraient pu causer des préjudices et assumer ainsi les conséquences de leurs actes .


L'IA pourrait-elle avoir - un jour - une personnalité juridique ?

À mes yeux, seule l'IA « forte» mérite l'octroi de la personnalité juridique. Le jour où l'IA sera véritablement autonome et dotée d'une conscience de soi, lui permettant de raisonner, de comprendre ce qu'elle fait et d'effectuer des choix, l'octroi d'un statut juridique se justifiera sans doute. En d'autres termes, le jour où l'IA sera capable de causer des préjudices avec conscience et volon-té, et échappera totalement au contrôle de l'être humain, il conviendra de lui octroyer un statut juridique, afin de lui imposer le poids de la réparation du préjudice causé.


À l'heure actuelle, cette forme d'IA n'existe pas, de sorte que la création d'une personnalité électronique n'est pour l'instant pas nécessaire. Il apparaît plus raisonnable d'imputer les effets de la responsabilité au concepteur, au fabricant, au propriétaire et à l'utilisateur de l'IA, lesquels se dissimulent inexorablement derrière les machines. Toutefois, pour désigner lequel de ces acteurs est responsable en cas de préjudice causé par une IA, il est indispensable de favoriser la transparence des algorithmes utilisés.


En effet, en cas de préjudice causé par une IA, il est difficile, voire impossible, d'en déterminer la cause exacte et donc d'identifier un être humain à l'origine de ce préjudice. Celui-ci peut être dû à un défaut de l'IA, auquel cas la responsabilité de tous les acteurs intervenus dans le processus de fabrication pourrait être engagée, mais il peut aussi provenir d'un apport de données ultérieur ou encore d'une mauvaise manipulation imputable à l'utilisateur et/ou au propriétaire. Or, l'opacité et la complexité des algorithmes utilisés ne permettent pas de remonter l'enchaînement des causalités et de déterminer la cause exacte du préjudice. Les algorithmes d'apprentissage ont un raisonnement si obscur (phénomène de la boîte noire) que même les concepteurs n'arrivent pas à justifier le raisonnement de l'algorithme ayant conduit au résultat dommageable!

Si l'on ne parvient pas à déterminer la cause exacte du préjudice, personne ne peut être tenu pour responsable et le lésé se retrouve par conséquent sans indemnisation. Il s'agit là d'un problème de causalité.


Attribuer une personnalité juridique à l'IA permettrait ainsi de simplifier la recherche d'un responsable et d'assurer une indemnisation adéquate aux lésés, puisque l'IA serait considérée comme une personne pleinement responsable de ses actes, tenue de réparer les préjudices qu'elle aurait pu causer.

Si l'on ne favorise pas la transparence des algorithmes utilisés, l'octroi de la personnalité juridique à l'IA peut s'avérer utile, afin d'assurer une indemnisation adéquate aux potentielles victimes et donc de satisfaire la fonction réparatrice du droit de la responsabilité civile.


Finalement, l'idée de cette personnalité électronique est d'éviter que les victimes ne se retrouvent sans indemnisation, juste parce qu'elles n'arrivent pas à prouver qui est responsable.

Toutefois, l'octroi de la personnalité juridique à l'IA ne paraît pas opportun pour plusieurs raisons.

Tout d'abord, la canalisation de la responsabilité sur la seule machine risquerait de déresponsabiliser les propriétaires et les utilisateurs et contribuerait donc à supprimer les effets préventifs de la responsabilité civile.


Bien plus, en sachant que la machine supportera les conséquences financières d'un éventuel préjudice, les producteurs pourraient être tentés de réduire les coûts de production, en négligeant la qualité et la sécurité de leurs produits.


Enfin, l'attribution de la responsabilité à l'IA dispenserait la recherche des causes exactes de la survenance du dommage, alors que cette recherche est essentielle pour améliorer la technologie et éviter que des incidents ne se reproduisent.


Pour toutes ces raisons, l'octroi de la personnalité juridique à l'IA paraît inopportun et d'autres solutions sont envisageables pour encadrer juridiquement la fabrication, la commercialisation et l'utilisation des systèmes intelligents.


Quels sont les principaux litiges à prévoir concernant l'IA ?

Destinée à assister l'Homme dans des tâches spécifiques, l'IA est indéniablement une source de progrès bénéfique pour la société. L'IA, capable de traiter et de stocker un nombre considérable de données en un temps record, surpasse déjà l'Homme dans de nombreux domaines. L'IA peut se révéler précieuse notamment dans les domaines de la médecine prédictive, de la circulation routière ou encore de la lutte contre le réchauffement climatique. Ces bénéfices ne doivent toutefois pas occulter les dangers générés par cette technologie.


Parmi les risques liés à l'IA les plus inquiétants, on pointe notamment une surveillance algorithmique constante couplée avec une collecte massive de données personnelles et violant la vie privée de tout un chacun, des cyberattaques d'une ampleur sans précédent ou encore des discriminations et la prise de décisions arbitraires.


Sans prétendre à l'exhaustivité, nous allons passer en revue quelques litiges à prévoir concernant l'IA.

Les systèmes de reconnaissance faciale sont déjà massivement utilisés en Chine, le but étant notamment de lutter contre la fraude, d'assurer la sécurité publique et, de manière générale, de surveiller la population. En Chine, les systèmes de reconnaissance faciale permettent notamment de mettre en œuvre le fameux système de crédit social destiné à noter les citoyens en fonction de leurs moindres faits et gestes. Considérés, à juste titre, comme une menace évidente pour les droits des personnes, les systèmes qui permettent la notation sociale par les États seront interdits dans l'Union européenne, conformément à la proposition de règlement sur l'IA dévoilée le 21 avril 2021 par la Commission européenne.


Comme toute technologie, ces systèmes de reconnaissance faciale ne sont pas infaillibles et, comme toute IA, les algorithmes s'entraînent sur la base d'échantillons de données. Or, celles-ci sont nécessairement introduites par des êtres humains, qui eux-mêmes sont biaisés dans une certaine mesure, ce qui a pour conséquence que les données à partir desquelles les algorithmes apprennent ne sont pas toujours suffisamment représentatives de l'ensemble de la population.

Et pour cause, en janvier 2020, Robert Williams, un Afro-Américain, s'est fait arrêter par la police à tort devant ses deux filles. Un système de reconnaissance faciale l'avait repéré et confondu avec un autre homme de couleur qui avait volé des montres dans une bijouterie de Detroit.


Avant ce scandale, en 2015, l'application de reconnaissance d'images développée par Google avait assimilé un couple afro-américain à des gorilles.

Force est de constater que les risques d'erreurs et de discriminations sont bien réels. C'est la raison pour laquelle la Commission européenne entend réglementer de façon stricte la reconnaissance faciale. Dans le domaine public, celle-ci ne sera autorisée que dans des cas très précis, par exemple pour identifier une victime disparue, un suspect dans un contexte terroriste ou une personne accusée d'une infraction grave.


Dans le même ordre d'idées, le domaine de la «justice prédictive» fait partie de ceux susceptibles de causer des inégalités et des discriminations. Les logiciels de justice prédictive, constitués d'algorithmes prédictifs capables de traiter un nombre considérable de données, comprenant notamment celles des parties en cause, les règles de droit pertinentes et une base de décisions précédemment rendues, permettent d'anticiper l'issue d'un procès. On pourrait penser que les machines seraient « plus aptes à rendre un jugement cohérent par rapport à ce qui a déjà été jugé, car elles rassemblent en une fraction de seconde les sources pertinentes que le juge humain aurait mis des années à compiler». Un autre argument susceptible d'inciter les États à recourir à l'IA en matière de justice est celui de la réduction des coûts. En effet, sur le long terme, un juge coûte plus cher qu'une simple machine.


Toutefois, il ne faut pas perdre de vue que le raisonnement juridique est un processus complexe qui relève avant tout de l'interprétation. Or, ce travail d'interprétation est difficilement reproductible par les algorithmes. De plus, il convient de rappeler que l'introduction de données biaisées dans le système entraînera systématiquement des résultats biaisés.


Pour prendre un exemple d'application concrète, on peut citer le logiciel COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) développé par la société privée Equivant et utilisé dans certains États américains pour évaluer le risque de récidive d'un condamné. Selon une étude réalisée par l'ONG ProPublica, il a été constaté que la population afro-américaine était systématiquement jugée susceptible de récidiver, révélant ainsi un biais ethnique ancré dans l'algorithme.


Pourtant, dans la mesure où la décision algorith-mique est souvent perçue comme infaillible, les juges pourraient être tentés de suivre systématiquement les résultats fournis par la machine, alors même que celle-ci n'est pas conçue pour décider à la place de son utilisateur. Une utilisa-tion de l'IA qui ne manquerait pas de creuser les inégalités et les discriminations.


En matière de santé, et plus particulièrement en matière d'assurances, les risques de discriminations et de prise de décisions arbitraires sont aussi à prévoir. Une IA pourrait être programmée pour déterminer si un individu peut souscrire une assurance et, le cas échéant, pour calculer le montant des primes en fonction de ses antécédents et de son profil. Pour ce faire, l'IA pourrait utiliser les données personnelles des individus issues d'objets connectés, comme une montre par exemple.


C'est exactement ce que Google a mis en place aux Etats-Unis, en collaboration avec Swiss Re, en créant une nouvelle société appelée Coefficient. Le but est de faire porter des montres connectées aux employés de certaines entreprises améri-caines, pour évaluer les risques et les coûts de la santé. En effet, aux États-Unis, ce sont les entreprises qui paient les primes d'assurance maladie de leurs employés, d'où l'intérêt de réduire au maximum les coûts de la santé. Grâce à ces montres connectées, certaines entreprises ont accès aux données personnelles de millions d'uti-lisateurs, telles que la fréquence cardiaque ou la température du corps. En fonction de ces données, l'assureur peut ajuster ses primes. Au-delà des problèmes qu'une telle implantation peut poser en matière de protection des données, cet usage de lIA peut aussi aboutir à des discriminations.


Ce petit tour d'horizon a permis de démontrer que les possibilités de l'IA semblent infinies, mais que cette technologie a aussi ses limites et que les litiges en la matière risquent d'exploser dans les années à venir; d'où la nécessité d'un encadre-ment légal strict de I'TA.


Par Anaïs Avila, un extrait du livre CODE IA, pour le Manufacture Thinking

bottom of page