top of page

IA & loi : que faut-il retenir de frappant au niveau international ?


La quatrième révolution industrielle, celle de l'IA, déploie petit à petit ses effets. Cependant, qu'en est-il de l'innovation juridique qui avait accompagné les révolutions précédentes ?


Souvenons-nous que la première révolution a permis l'émergence de la SA (société anonyme) et du Code des obligations. La deuxième, avec l'internationalisation du commerce et de la sous-traitance, définira un droit nouveau, dit « droit international». La troisième, celle de la machine-outil à commande numérique, autrement dit celle des robots, de l'informatique et d'Internet, apportera les soft laws telles que les normes ISO ou les RFC (Request for Comments) pour Internet.

Le droit, à chaque révolution, semble devenir plus soft ! Qu'en est-il pour la quatrième révolution industrielle ?

Entretien avec Maria Assunta Cappelli

Mme Maria Assunta Cappelli, qui a non seulement obtenu un doctorat en droit sur la régulation

des robots autonomes de l'université italienne de Trento, un master en droit international et européen, mais également des compétences en IA ayant passé un certificat complémentaire d'informatique, ces deux derniers diplômes décernés par l'université de Genève.


IA et loi: que faut-il retenir de frappant au niveau international ?

Au niveau international, il n'y a pas d'approche commune sur la façon dont il faut traiter l'IA.

À titre d'exemple, nous allons comparer l'Union européenne (UE) et les États-Unis (USA). L'UE a pris une position claire sur le développement d'un cadre éthique et juridique dès le début du débat sur l'IA. En 2018, lors du lancement de sa stratégie sur l'IA, la Commission européenne a souligné l'importance de garantir un cadre éthique et juridique approprié, fondé sur les valeurs de l'Union et conforme à la Charte des droits fondamentaux de l'UE.


Ensuite, la Commission européenne a expliqué cette stratégie dans son plan coordonné pour le développement et l'utilisation de I'IA en Europe. Dans ce plan, elle a nommé un groupe d'experts indépendants de haut niveau pour l'IA, chargé de développer un projet de lignes directrices en matière d'éthique de l'IA.


Les États-Unis se sont positionnés en faveur d'une réglementation minimale afin de promouvoir l'innovation. Ainsi, ils ont suivi une approche décentralisée et on a assisté à un processus bottom-up par l'émergence des lois émises par les États américains et de soft laws émises par des entreprises ou des agences de régulation.


Bien que les approches soient hétéroclites, l'IA n'a pas encore trouvé sa place dans le cadre juridique de l'UE, ni dans celui des USA.


Pouvez-vous mieux expliquer la différence d'approche entre les USA et l'Europe ?

L'UE et les USA ont élaboré des stratégies différentes pour gérer les questions liées à l'IA.

Cette différence se déduit du Livre blanc sur l'IA de la Commission européenne ainsi que de l'ordre exécutif concernant l'initiative américaine sur l'IA.


Le 19 février 2020, la Commission européenne a publié le Livre blanc du titre: Intelligence artificielle. Une approche européenne axée sur l'excellence et la confiance qui a été soumis à consultation publique jusqu'au 19 mai 2020. Le Livre manifeste tant les objectifs que les options stratégiques de l'UE par rapport à l'IA. L'approche européenne a une connotation éthique, comme il en découle du titre et du contenu du Livre blanc. La Commission a constaté, à titre préliminaire, qu'il faut permettre « un développement sûr et digne de confiance de l'IA en Europe, dans le plein respect des valeurs et des droits des citoyens européens». Par ailleurs, « l'approche européenne en matière de l'IA vise à promouvoir les capacités d'innovation de l'Europe dans le domaine de l'IA tout en soutenant le développement et l'adoption d'une lA éthique et digne de confiance dans tous les secteurs économiques de l'UE ». Le but est de mettre l'IA « au service des citoyens et constituer un atout pour la société. Ces assertions sont souvent répétées dans le Livre blanc afin de souligner que l'innovation devrait se réaliser pourvu que le respect de l'éthique et de l'humain soit garanti.


Néanmoins, le Livre contient aussi des propositions programmatiques. Dans le cadre de la politique publique, la Commission a défini des mesures destinées à créer un « écosystème d'excellence». Il s'agit de mesures concernant la recherche, l'innovation, et les petites et moyennes entreprises. Par exemple, la Commission a programmé de « renforcer encore les pôles d'innovation numérique » et « la plateforme de l'IA à la demande» et d'« encourager la collaboration entre les PME ».


Le 21 avril 2021, la Commission européenne a présenté sa proposition législative pour réglementer les usages de l'IA 5. La proposition est en lien avec la position prise par la Commission dans le Livre blanc, puisqu'elle préconise un usage de l'IA éthique et digne de confiance.


En effet, Mme Margrethe Vestager - vice-présidente exécutive pour une Europe adaptée à l'ère du numérique - a déclaré que les normes de la Commission visent à créer une « technologie éthique» qui soit digne de confiance pour les utilisateurs. La stratégie de la Commission est d'instaurer un climat de confiance envers l'IA par des règles fondées sur le principe de précaution. Ce principe est attaché aux risques hypothétiques, qui ne sont pas encore confirmés scientifiquement.


La Commission a identifié trois typologies de risques liées à différents systèmes d'IA: le risque inacceptable; le risque élevé; et le risque limité ou minime. Il s'agit d'une gradation du risque corrélée à la mesure de la menace que les différents systèmes d'IA peuvent faire peser sur les droits fondamentaux.


Le titre Il de la proposition impose l'interdiction de certains systèmes d'IA. Leur utilisation est considérée comme inacceptable, car potentiellement contraire aux valeurs de l'Union ainsi qu'aux droits fondamentaux. Par exemple, l'interdiction couvre les pratiques de manipulation de personnes réalisées par des techniques subliminales ou les pratiques exploitant les vulnérabilités de certains groupes, comme les enfants ou les personnes han-dicapées. Toutes ces pratiques visent à déformer matériellement le comportement des personnes d'une manière susceptible de causer, à eux ou à une autre personne, un préjudice psychologique ou physique.


Le titre III contient « des règles spécifiques pour les systèmes d'IA qui créent un risque élevé pour la santé et la sécurité ou les droits fondamentaux des personnes physiques. Les systèmes d'IA à haut risque sont autorisés sur le marché européen, sous réserve du respect de certaines exigences obligatoires et d'une évaluation de conformité ex ante ». La Commission définit les règles de classification de ces systèmes d'IA et les sépare en deux catégories: «1) les systèmes d'IA destinés à être utilisés comme composants de sécurité de produits soumis à une évaluation de conformité ex ante par un tiers; 2) d'autres systèmes d'IA autonomes ayant principalement des implications sur les droits fondamentaux qui sont explicitement énumérés à l'annexe III de la proposition ». Par ailleurs, la Commission impose des obligations horizontales proportionnées à la charge des fournisseurs de ces systèmes d'IA, des utilisateurs ainsi que des importateurs, distributeurs, représentants autorisés et toute personne qui participe à l'AI value chain.


Le titre IV impose des obligations de transparence par rapport aux « systèmes d'IA qui (i) interagissent avec les humains, (ii) sont utilisés pour détecter des émotions ou déterminer l'association avec des catégories (sociales) basées sur des données biométriques, ou (iii) générer ou manipuler du contenu ("deepfakes") ». Il s'agit de technologies ayant un risque limité. Par exemple, « si un système d'IA est utilisé pour générer ou manipuler un contenu image, audio ou vidéo qui ressemble sensiblement à un contenu authentique, il devrait y avoir une obligation de préciser que le contenu est généré par des moyens automatisés, sous réserve de l'application d'exceptions poursuivant des buts légitimes (comme l'application de la loi ou la liberté d'expression) ».


Concernant les USA, le 11 février 2019, le Président a émis l'ordre exécutif n° 13859 par lequel il a lancé l'initiative américaine sur l'IA. Le but des USA est de maintenir le leadership américain dans le domaine de l'IA, en révisant ainsi qu'en implémentant les objectifs stratégiques américains par rapport à l'IA. Par l'analyse des objectifs que les USA visent à attendre, on peut extrapoler une approche plutôt pragmatique. 


Les USA sont bien conscients que, pour maintenir le leadership dans le domaine de l'IA, il faut insister sur : 


  1. l'investissement dans la recherche et le développement de l'IA; 

  2. l'amélioration de l'accès aux données, modèles et resources informatiques fédéraux de haute qualité; 

  3. la suppression des obstacles à l'innovation de l'IA; 

  4. l'encouragement du développement de normes techniques pour l'IA; 

  5. la formation des nouvelles générations de travailleurs et utilisateurs pour l'IA; 

  6. la promotion d'un environnement international qui soit favorable à l'innovation américaine en matière d'IA et qui ouvre des marchés aux industries américaines de l'lA.


Ces objectifs sont la synthèse d'un plan d'action qui paraît traîner les futurs choix opérationnels des États-Unis dans le domaine de l'IA.


Extrait de l'entretien avec Maria Assunta Cappelli dans le livre collactive CODE IA, 2021 pour le Manufacture Thinking

bottom of page