Avec la progression constante de l’intelligence artificielle (IA), les algorithmes occupent une place de plus en plus importante au sein des entreprises françaises et européennes.
Les objets connectés font désormais partie de notre quotidien. Vous souhaitez savoir quel temps il fera demain à l’autre bout du monde ? Des assistants vocaux tels que Siri ou Alexa peuvent vous répondre. Vous avez perdu votre carte bleue et souhaitez en commander une autre en ligne ? Le chatbot du site internet de votre banque est là pour vous aider. Bien qu’elles ne soient encore qu’au stade de l’expérimentation, les voitures autonomes pourraient également faire partie intégrante du paysage d’ici quelques années.
Ainsi, il est important de connaître les enjeux et le cadre juridique relatifs aux algorithmes et à l’intelligence artificielle.
En France, la CNIL publiait le 15 décembre 2017 un rapport sur les enjeux éthiques des algorithmes et de l’IA. En Europe, le 21 avril 2021, la Commission européenne présentait officiellement sa proposition de règlement « établissant des règles harmonisées concernant l’intelligence artificielle ». La même année, un livre blanc sur l’IA a été adopté, et une consultation participative a été mise en place. Il s’agit du premier cadre juridique européen sur l’IA.
Vous êtes dirigeant d’une entreprise et utilisez, dans le cadre de votre activité, des algorithmes et mécanismes d’IA ? En tant que fournisseur de services d’IA, vous vous interrogez sur les défis juridiques liés à l’utilisation de ces outils ?
L’importance croissante de l’intelligence artificielle
L’IA peut être définie comme « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence ».
Aujourd’hui, l’IA joue un rôle de plus en plus important et s’impose comme un outil incontournable pour de nombreux entrepreneurs. Le marché de l’IA connaît une croissance fulgurante, jusqu’à atteindre 267 milliards de dollars d’ici à 2027. D’après une étude du Boston Consulting Group, 90 % des dirigeants considèrent l’IA comme une opportunité commerciale pour leur entreprise.
L’IA concerne un grand nombre de secteurs différents, mais elle se concentre désormais essentiellement sur le réseau de neurones multicouches. Ces réseaux sont des systèmes inspirés du fonctionnement des neurones humains. Inventés en 1957 par Frank Rosenblatt, ils ont fait l’objet d’une application très limitée en raison de l’insuffisance de données pour l'entraînement et de l’insuffisance des infrastructures de l’époque. Depuis, les choses ont bien évolué. Certains parlent même de la 4e révolution industrielle (4RI), caractérisée par la production et le traitement d’une quantité de données considérable. L’IA joue ainsi un rôle crucial et implique l’utilisation d’algorithmes.
Intelligence artificielle et propriété intellectuelle
Intelligence artificielle et droit d’auteur
Que se passe-t-il lorsque les robots deviennent artistes et créent des œuvres ? Comment ces œuvres sont-elles protégées ? Les créations artistiques réalisées par des machines ne cessent de se multiplier. Le tableau « Portrait d’Edmond de Belamy », peint grâce à un programme d’IA, a par exemple été vendu en octobre 2018 à 432 500$. Il ne s’agit pas d’un exemple isolé, et beaucoup de secteurs artistiques sont concernés. Concernant la musique, l’algorithme AVIA (Artificial Intelligence Virtual Artist) compose des œuvres musicales grâce à un répertoire composé de plus de 15 000 œuvres.
En principe, le droit d’auteur protège les œuvres d’une personne physique, d’un être humain. Pourtant, l’automatisation croissante de l’art pose des défis nouveaux. Dans ces circonstances, les robots dotés de l’IA sont-ils considérés uniquement comme des créations humaines ou peuvent-ils aussi être considérés comme des créateurs ?
Puisqu’il n’y a pas d’intervention humaine, en principe, la création issue d’une machine ne bénéficie d’aucune protection en vertu du droit positif. Cependant, cela risque d’évoluer. Le Conseil supérieur de la propriété littéraire et artistique a publié le 27 janvier 2020 un rapport portant sur l’IA créative, dans lequel plusieurs hypothèses sont proposées quant à la protection des œuvres issues de l’IA.
Deux problèmes principaux se posent au sujet de ces œuvres : leur qualification juridique et leur titularité.
La qualification juridique d’œuvre
Tant que l’être humain n’a pas été totalement exclu de la création, l’assistance du robot doté de l’IA ne fait pas obstacle à la reconnaissance du caractère original de l’œuvre. Le TGI de Paris a jugé le 5 juillet 2000 que « la composition musicale assistée par ordinateur dès lors qu’elle implique une intervention humaine (…) conduit à la création d’œuvres originales et comme telles protégeables quelle que soit l’application qui peut être portée sur leur qualité. ».
Cependant, quand l’œuvre est créée entièrement par le robot-artiste, sans intervention humaine, alors elle ne peut pas être qualifiée d’« œuvre » au sens de la propriété intellectuelle et n’est donc pas protégeable.
La titularité de l’œuvre
Qui peut prétendre à la titularité de l’œuvre ? Le concepteur du robot, celui qui l’a imaginé et fabriqué, doté de toutes les données nécessaires ? L’utilisateur de l’IA, celui qui manipule la machine, qui l’utilise ?
Devant ces difficultés, différentes options ont été proposées. Par exemple :
- La création d’un droit d’auteur spécial aménageant la notion d’originalité comme cela a été fait pour les logiciels ;
- L’utilisation du modèle de l’œuvre collective afin de récompenser également le concepteur de la technologie ;
- La création d’un droit sui generis permettant de protéger les investissements financiers, humains ou matériels de ceux ayant participé au développement de l’IA.
Intelligence artificielle et droit des brevets
L’IA est en grande partie à l’origine de l’augmentation impressionnante des dépôts de brevet durant les dix dernières années. Entre 2013 et 2016, les demandes de brevet portant sur l’IA ont augmenté de 46%. Cependant, pour bénéficier de la protection du droit des brevets, l’invention doit remplir les conditions classiques des brevets et notamment présenter un caractère technique, et non pas abstrait ou mathématique. À ce titre, les algorithmes sont exclus en tant que tels de la brevetabilité.
L’IA est considérée comme un domaine de l’informatique et les inventions impliquant de telles technologies appartiennent donc à la catégorie des « inventions mises en œuvre par ordinateur » (IMO). Il s’agit d’inventions faisant intervenir des ordinateurs, des réseaux informatiques ou d’autres dispositifs programmables dans lesquels au moins une caractéristique est réalisée grâce à un programme.
Pour être brevetables, conformément à l’article 52 de la Convention sur le brevet européen (CBE), l’invention mise en œuvre par ordinateur :
- ne doit pas être exclue de la brevetabilité ;
- doit réunir les critères classiques de la brevetabilité (être nouvelle, impliquer une activité inventive et être susceptible d’application industrielle)
Les évolutions récentes ont également chamboulé la notion d’inventeur. En effet, trois catégories d’inventions impliquant l’IA peuvent être identifiées :
- les inventions humaines utilisant l’IA pour vérifier un résultat ;
- les inventions dans lesquelles les êtres humains identifient un problème et utilisent l’IA pour trouver une solution ;
- les inventions faites par l’IA dans lesquelles l’IA identifie un problème et propose une solution, sans intervention humaine.
L’inventeur, au sens du droit des brevets, doit être un être humain, pas une machine.
La coopération internationale est également très importante en la matière : 80% des demandes de brevet déposées dans le monde le sont auprès des cinq principaux offices de la propriété intellectuelle : l’Office européen des brevets (OEB), le Japan Patent Office (JPO), le Korean Intellectual Property Office (KIPO), la China National Intellectual Property Administration (CNIPA) et le United States Patent and Trademark Office (UPSTO). Ces organismes ont développé une approche conjointe et coopèrent activement dans le domaine des technologies émergentes et de l’intelligence artificielle, à travers la création d’une équipe spéciale dont le rôle est de coordonner leurs initiatives.
Les enjeux liés à la responsabilité
Que se passe-t-il lorsque l’IA est à l’origine d’un dommage ?
Responsabilité et voitures autonomes
Le 19 mars 2018 a eu lieu le premier accident mortel impliquant une voiture autonome : le véhicule, utilisé par l’entreprise américaine Uber, a percuté mortellement une piétonne. Pourtant, il n’existe pas de régime de responsabilité spécifique aux véhicules autonomes. Cependant, la loi Badinter de 1985 devrait, en principe, s’appliquer. En effet, les voitures autonomes constituent bien des « véhicules terrestres à moteur ». Ainsi, en droit français, deux co-responsables peuvent être envisagés : le conducteur de la voiture autonome et son fabricant.
Le cadre législatif relatif aux voitures autonomes est en pleine évolution. Le 14 avril 2021, a été adoptée une ordonnance fixant les responsabilités du conducteur, du constructeur et des concepteurs de systèmes d’automatisation :
- Lorsque le système de délégation de conduite est activé, le conducteur n’est pas pénalement responsable mais il doit se tenir constamment en état et en position de répondre à une demande de reprise en main du système de conduite automatisé.
- Le constructeur, quant à lui, est pénalement responsable dès lors qu’une faute est établie alors que le système de conduite automatique fonctionne.
Responsabilité et objets connectés
Les objets connectés peuvent également être la source de divers dommages, notamment en ce qui concerne la protection des données personnelles. C’est le cas par exemple des collectes illicites et abusives de données à caractère personnel. Les dommages causés par les objets connectés peuvent aussi donner lieu à l’application du régime de responsabilité du fait des produits défectueux. Lorsque le dommage n’a pas été causé en raison d’un défaut du produit, alors il est envisageable de se tourner vers la responsabilité du fait des choses que l’on a sous sa garde.
Tant en matière de durée de conservation des données qu’en ce qui concerne la nature du traitement, des risques existent. Depuis 2016, la CNIL s’intéresse au sujet des véhicules autonomes et a publié un « pack de conformité » aidant les professionnels du secteur à se conformer aux dispositions du RGPD.
L’exemple des chatbots
Un chatbot est un programme informatique pouvant, grâce à une capacité de compréhension algorithmique d’un grand nombre de données, dialoguer avec un être humain en utilisant un langage naturel à l’écrit ou à l’oral. Cette technologie s'est améliorée au fil du temps et dépend largement des progrès de l’intelligence artificielle.
Logiquement, les chatbots traitent un nombre considérable de données personnelles, dont certaines permettant d’identifier personnellement l’individu avec lequel ils dialoguent. Cela pose alors des défis liés au traitement des données personnelles par ces robots et à leur conformité avec le RGPD.
L’utilisation de chatbots requiert alors un contrôle accru :
- Des obligations additionnelles doivent être imposées pour le traitement de données considérées comme sensibles (informations sur la santé de l’utilisateur, sa religion, son orientation et vie sexuelle…) ;
- Si le traitement est fondé sur une obtention de consentement, il faut garder en tête que la charge de la preuve pèse sur le responsable du traitement. C’est donc à lui que revient la responsabilité de démontrer que l’individu a bien donné son consentement ;
- Il faut également s’assurer d’instaurer une durée limitée de conservation des données, estimée en fonction de la finalité du traitement. Les données qui ne sont pas nécessaires à la finalité poursuivie doivent être supprimées, alors que les données nécessaires peuvent être conservées plus longtemps.
- Enfin, il convient de veiller au respect des différents droits des utilisateurs.
La nouvelle proposition de règlement européen : présentation et sanctions
Présentation
À travers sa proposition de règlement établissant des règles harmonisées concernant l’intelligence artificielle, la Commission européenne a pour objectif de s’assurer que les systèmes d’IA utilisés au sein de l’UE soient sûrs, transparents, éthiques, impartiaux et sous contrôle humain. Concrètement, le nouvel instrument juridique de l’Union européenne vise à établir des règles harmonisées en matière d’IA et d’algorithmes, à interdire certaines pratiques et à établir des exigences spécifiques pour certains systèmes d’IA.
Les systèmes d’IA sont classés selon leur « niveau de risque » : risque minime, risque limité, risque élevé et risque inacceptable. Ainsi, certaines pratiques sont strictement interdites et certains systèmes d’IA à haut risque doivent respecter des exigences spécifiques. Par ailleurs, des obligations de transparence s’appliquent également à certains systèmes d’IA. Enfin, le texte prévoit la création d’un Comité européen de l’intelligence artificielle, dont le rôle sera de fournir des conseils et une assistance et d’assurer une application cohérente du texte.
Sanctions
D’un point de vue pratique, l’adoption de cette nouvelle réglementation rend nécessaire pour les fournisseurs d’IA une mise en conformité. En effet, les sanctions administratives prévues par le texte sont considérables :
- Jusqu’à 30 000 000 d’euros ou 6% du chiffre d’affaires annuel mondial en cas de non-respect des interdictions mentionnées ci-dessus ou de non-conformité du système d’IA avec les obligations posées en matière de donnée et gouvernance des données ;
- Jusqu’à 20 000 000 d’euros ou 4% du chiffre d’affaires annuel mondial dans le cas d’autres infractions liées à la non-conformité du système d’IA avec les règles posées par le texte ;
- Jusqu’à 10 000 000 d’euros ou 2% du chiffre d’affaires annuel mondial en cas de fourniture d’informations inexactes, incomplètes ou trompeuses.
Le rôle de l’avocat spécialisé
Qu’il s’agisse de la mise en place d’un algorithme ou d’un système d’intelligence artificielle ou de sa mise en conformité, il est conseillé de se faire accompagner par un avocat spécialisé.
La complexité du sujet et l’évolution constante du cadre juridique relatif aux algorithmes et aux systèmes d’intelligence artificielle rendent en effet nécessaire l’aide d’un professionnel. Ainsi, un expert saura vous aiguiller et vous conseiller dans la mise en place de votre système, ou dans sa mise en conformité, afin de s’assurer du respect des dispositions en vigueur.
Une question ? Laissez votre commentaire