Qant : Il y a jusqu’à présent eu beaucoup d’interprétations politiques de l’AI Act, que ce soit sur l’Open Source, le point de vue de la France, de la French Tech, etc… Mais quel sera l’impact concret pour les entreprises ?

Gilles Rouvier : Il faut tout d’abord rappeler que le texte n’a pas encore été définitivement adopté, contrairement à ce qu’on a pu lire, cela devrait intervenir en avril prochain. Les sanctions prévues par ce règlement sont plus élevées que celles du RGPD. Elles vont viser essentiellement ceux qui mettent sur le marché ou en service des outils d’IA, que ce soit en tant que fournisseur, ou en tant qu’opérateur qui modifie ce qui existe déjà et qui l’implémente. Nous avons déjà des grands groupes qui nous demandent d’anticiper l’implémentation de ce texte dans leurs règles de fonctionnement interne.

En réalité, il serait intéressant d’élargir la discussion à un sujet plus large qui est la gouvernance de l’IA en entreprise, en allant au-delà de l’AI Act. Aujourd’hui, de l’aveu de certains clients, l’IA est utilisée dans les entreprises par de nombreux collaborateurs sur les outils mis à leur disposition, et ce depuis longtemps, sans que ces dernières n’aient nécessairement mis en place un contrôle ou plutôt une gouvernance de l’IA.


Qant : Quels sont les risques ?

Gilles Rouvier : Il y a aujourd’hui une utilisation débridée de l’IA au travers des outils personnels dont nous disposons tous, n’importe quel salarié peut copier-coller dans ChatGPT installé sur son portable des informations confidentielles de l’entreprise. Or, il n’y a pas de garantie « non ambiguë » dans les conditions générales d’utilisation de ces IA, surtout quand elles sont mises à disposition gratuitement, sur le fait que ces données ne seront pas utilisées à des fins d’entraînement de l’IA, ou consultées par des intervenants humains pour corriger ou contrôler l’outil.

Il est donc vraisemblable que le système d’IA va les ingérer, et les utiliser pour ses modèles. Si plus tard des questions sont posées sur cette entreprise dans laquelle un salarié à fait un mésusage d’une IA, les informations confidentielles utilisées à des fins d’entraînement peuvent tout à fait ressortir.

Un autre exemple serait le travail d’un développeur qui demanderait à ChatGPT, ou une autre IA Générative, de détecter les bugs dans les lignes de code qu’il vient d’écrire en le copie-collant dans la fenêtre de prompt. Ce code à haute valeur du fait de sa confidentialité et du savoir-faire du développeur peut être « régurgité » du fait du prompt d’un autre utilisateur, selon l’expression de plus en plus utilisée. Dit autrement, ce second utilisateur se retrouverait virtuellement contrefacteur du premier sans le savoir.


Qant : Comment s’en protéger ?

Gilles Rouvier : Un point de vigilance pour les entreprises utilisatrices d’IA sera sans aucun doute d’auditer leurs relations contractuelles avec leurs fournisseurs d’outils d’intelligence artificielle. Il va falloir s’assurer avec ces fournisseurs que les bonnes clauses sont prévues dans les contrats de prestations de service pour limiter les risques, que chaque fournisseur donne toutes les garanties de conformité de son outil par rapport à l’AI Act, et de même qu’elles soient bien intégrées par le déployeur. Or, la problématique est qu’au sein d’une entreprise, ceux en charge de commander (les départements Sourcing ou Achat, Procurement, ou plus simplement la DSI) la fourniture de logiciels et autres outils informatiques réclamés par les équipes métiers, ne sont pas toujours en capacité de veiller au respect de ces aspects juridiques pourtant cruciaux pour les outils d’IA.

Sur la question des données personnelles, il faut s’assurer d’une bonne utilisation de ces dernières, avec une répartition claire des rôles entre le responsable de traitement et le sous-traitant par exemple. L’AI Act va impacter les entreprises sur ces deux aspects. Les dispositions du RGPD vont bien sûr également s’appliquer à l’IA. Enfin, les entreprises qui créeront et/ou mettront sur le marché des outils d’IA, devront respecter d’autres obligations, de conformité, d’information des utilisateurs, de transparence, plus ou moins lourdes en fonction de leur évaluation du niveau de risque de leurs outils IA par rapport à la classification faite par l’AI Act.


Qant : Quelle différence faire entre données d’entraînement, données d’inférence, etc. ?

Gilles Rouvier : Les données sont au coeur de l’intelligence artificielle, et ce à trois moments clés. Il y a l’entrée, c’est-à-dire l’input de data. Puis l’entraînement de l’IA, et enfin l’output : ce qui sort de l’IA. La problématique du droit d’auteur, qui est abordée par l’AI Act notamment en raison des pressions de la France et d’autres états, est mentionnée principalement dans les considérants du texte et met en avant le fait que le droit d’auteur doit être protégé dans le cadre de la mise en oeuvre d’outils d’intelligence artificielle.

Ce qui est principalement visé, c’est l’input : c’est-à-dire ce qui va entrer dans la chaîne d’IA pour avoir les premiers cycles d’entraînement, les données massives qui vont alimenter le modèle. La problématique du droit d’auteur concerne ici le web scraping, c’est-à-dire la technique consistant à extraire des données de sites web par l'utilisation d'un script ou d'un programme dans le but de les transformer et les réutiliser dans un autre contexte comme l'entraînement d’une IA. On ne le rappellera jamais assez, ce n’est pas parce qu’un contenu est sur Internet qu’il est libre de droits ! Certains contenus sont protégés par le droit d’auteur, comme par exemple les bases de données de Getty Images, ou les articles du New York Times, au sujet desquels des contentieux fleurissent aux Etats-Unis. Ces contenus ont été « scrapés », et donc reproduits sans autorisation, même si ce n’est que temporairement, pour alimenter et entraîner des IA. Ce « pillage » est généralement fait en parfaite méconnaissance des droits d’auteur et des droits des titulaires de bases de données.

Les données d’inférence visent quant à elles les données résultant du processus par lequel un modèle entraîné effectue des prédictions sur de nouvelles données, après sa phase d'apprentissage. C’est l’étape essentielle entre l’apprentissage fait par l’IA et l’utilisation des modèles.


Qant : Il y a également la question de l’obligation de transparence imposée aux fabricants de modèles.

Gilles Rouvier : Cela permettra aux auteurs de savoir que leurs oeuvres ont été utilisées pour entraîner l’IA, ce qui devrait induire une certaine prudence de la part de ceux qui entraînent l’IA avec des données qui sont accessibles sur Internet mais qui ne sont pas nécessairement dépourvues de droits d’auteur. Il y a également la question de la finalité pour laquelle les données sont collectées par ces logiciels. Il y a par exemple l’exception en droit européen du TDM (text & data mining exception - Directive 2019/790/E) : dans le cas d’une finalité académique ou de recherche scientifique, sous certaines conditions, il est possible de « fouiller » des bases de données accessibles sur Internet même si elles sont protégées par un droit privatif, et donc entraîner des IA.


Qant : La principale nouveauté de l’AI Act est également la classification des IA.

Gilles Rouvier : On distingue en effet les IA interdites, les IA à haut risque, les IA à usage général (que l’on peut diviser en deux catégories : à risques systémiques ou non systémiques), et les IA autres. Pour les premières, celles interdites, il existe des sanctions très fortes qui s’élèvent jusqu’à 7% du chiffre d’affaires mondial ou 35 millions d’euros. Les IA à haut risque constituent elles le coeur du réacteur : il existe un mécanisme de tests, des obligations de transparence, de conformité, qui sont très lourdes à mettre en oeuvre. Il faut également mentionner le cas particulier des IA mises sur le marché exclusivement à des fins militaires, de défense, ou de sécurité nationale, qui bénéficient d’une exemption d’application de l’AI Act. Il faut également noter la mise en avant d’une certaine conception de l’open source dans les dernières moutures du texte. Dans les grandes lignes, une distinction est faite selon que la licence d’utilisation de l’outil d’IA est ou non gratuite et ouverte. Si elle est gratuite et ouverte, on aura une non-application de l’AI Act. La vision de la présidence belge et du législateur est que l’open source, pour être exempté de l’obligation de transparence, doit être accessible gratuitement. Et elle a pour conséquence que les outils d’IA de Mistral AI, dont les licences d’utilisation ne seront vraisemblablement pas gratuites, auront les mêmes obligations découlant de l’AI Act qu’OpenAI.


Qant : La vision de la French Tech est, qu’au-delà de Mistral, les start-ups de plus petite taille ne pourront pas faire face, et que le texte est en cela discriminant. Mais ces start-ups sont-elles concernées par les systèmes d’IA à haut risque, par exemple ?

Gilles Rouvier : Il faut revenir à la définition de ce que c'est qu'un système à haut risque. Les systèmes d’IA à haut risque répondent à des conditions cumulatives définies par le texte de l’AI Act et notamment une liste de SIA à haut risque figure en annexe III (ex. SIA de recrutement, SIA d'évaluation de la solvabilité des personnes). Cette liste est très large. Il va y avoir un travail de précision des aspects techniques par l’AI Office européen et l’autorité française (qui n’est pas encore désignée). Il va falloir déterminer précisément ce qu'est une IA à haut risque, et le juge aura un rôle important à jouer. La question est celle de l’usage de l’IA, les IA à haut risque ne concernent pas nécessairement seulement les gros acteurs, et les start-ups comme les PME sont prises en compte par le texte.


Qant : Quel rôle pourra jouer l’AI office européen sur ce sujet ?

Gilles Rouvier : Il y a désormais un AI Office au niveau européen. Il y aura également, selon le texte, dans chaque pays deux autorités, l’une pour les notifications et l’autre pour la surveillance du marché. En France, a priori et sauf surprise, il devrait s’agir de la CNIL. On va ici au-delà du RGPD, car l’IA ne concerne pas que des données personnelles, mais également de la donnée brute. En France, la Cnil, qui est habituée à s’occuper principalement des données personnelles, a commencé depuis plusieurs mois à s’approprier ces nouveaux sujets. On trouve sur son site des informations très importantes et pratiques sur l’IA.


Qant : D’un point de vue juridique, l’AI Act est-il un ovni ?

Gilles Rouvier : C’est un texte dont l’élaboration a été très longue et qui a dû être repensé en profondeur du fait du raz de marée de l’IA générative. Il est aussi le résultat de nombreux compromis du fait notamment du jeu des lobbys. L’importance des sanctions encourues, la complexité et la densité de sa rédaction vont nécessiter, pour sa mise en oeuvre, l’assistance d’experts à la croisée du juridique et de la technologie.

Comme tous les textes européens des dernières années, on observe deux phénomènes. Il y a des principes mis en avant, comme la transparence, la non-discrimination. Mais dans le libellé des textes, on observe que ces derniers sont extrêmement complexes. Ils sont rédigés trop dans le détail, et on sent très souvent derrière le texte des exceptions poussées par des lobbys pour pouvoir bénéficier d’un avantage. La mise en oeuvre du texte en sera d’autant plus complexe, ce qui est dangereux. La loi, pour être efficace, doit être claire et compréhensible par tous. Plus on avance dans la production législative et réglementaire, plus les textes sont complexes et détachés des réalités. Cela crée une insécurité juridique, qui n’est pas compatible avec une économie saine qui demande de la confiance. Il y a là une vraie contradiction : on veut mettre en place une zone de confiance en Europe pour l’IA mais avec un texte difficile à comprendre par les acteurs économiques. Dans l’Union européenne, on a majoritairement une tradition du droit qui est romano-germanique, où les codes sont précis, la loi est édictée par le parlement et où le juge est chargé d’appliquer la loi et parfois de l’interpréter. Or, on a eu ces dernières années la poussée d’une approche anglo-saxonne des textes, notamment de la part des Britanniques qui ont depuis quitté l’Europe. Cela fait qu’on a aujourd’hui des textes qui ne correspondent plus à notre tradition romano-germanique.


Qant : L’AI Act risque-t-il de mettre l’Europe en retard vis-à-vis des Etats-Unis comme a pu le faire le RGPD, par un excès de réglementation ?

Gilles Rouvier : Le RGPD a permis pour la première fois de prendre conscience mondialement et en quelques années seulement, de l’importance de la vie privée et des données personnelles. Il a été très décrié au début, mais il ne faut pas oublier que le commerce des données est mondial et que l’Europe représente une zone d’influence et de consommateurs majeure. Pour continuer à faire du commerce avec l’Europe, de nombreux États américains nous ont imités, tout comme le Canada, ou le Brésil par exemple. Il y a eu un phénomène de propagation des idées européennes sur les données personnelles et la protection de la vie privée. On note une prise de conscience mondiale sur le fait que donner ses informations personnelles à des Big Tech pour ensuite être profilé n’était pas anodin. Au-delà des critiques que j’apporte sur la complexité du texte, je considère que l’AI Act vient pour la première fois mettre en place des règles qui respectent une certaine éthique et des principes fondamentaux de sécurité, de liberté et de respect des droits en vigueur dans l’Union européenne. Les Gafam/ Big Tech, qui voudront continuer à faire du commerce avec nous, seront obligés de se mettre en conformité avec le texte, et il y aura une prise de conscience similaire dans leur pays, comme il y a eu pour le RGPD. On le voit déjà au Canada, où il y a un projet de loi sur l’IA. Il y en aura d’autres. Pour moi l’AI Act n’est pas un retard, c’est un progrès.