Réglementation

L’AI Act européen adopté après des négociations marathon

Les négociateurs du Parlement et du Conseil européens sont parvenus à un accord concernant la réglementation de l'intelligence artificielle. L'approche basée sur les risques, à la base du projet, est confirmée. Des compromis sont censés garantir la protection contre les risques liés à l’IA, tout en encourageant l’innovation.

(Source: PhonlamaiPhoto iStock.com / Chickenonline from Pixabay)
(Source: PhonlamaiPhoto iStock.com / Chickenonline from Pixabay)

L’Union Européenne est parvenue à un accord sur l’AI Act, le texte qui va réglementer l’intelligence artificielle (IA). Le marché économique européen devient ainsi le premier à fixer des règles contraignantes en la matière. Le compromis trouvé entre les négociateurs du Parlement et du Conseil «vise à garantir que les droits fondamentaux, la démocratie, l’Etat de droit et la durabilité environnementale sont protégés contre les risques liés à l’IA, tout en encourageant l’innovation et en faisant de l’Europe un des leaders dans ce domaine», explique le communiqué du Parlement européen. Selon l’agenda publié par le Conseil européen, le texte final doit maintenant être formellement adopté et la loi n'entrera pas en vigueur avant 2026. 

L’AI Act de l’UE est fondé sur une approche basée sur les risques et prévoit des contraintes et sanctions en fonction du type d'applications. Les systèmes qui menacent les droits des citoyens et la démocratie sont interdits, à l'image des outils de catégorisation biométrique utilisant des caractéristiques sensibles ou de l’extraction non ciblée d’images faciales. Pour ce type de systèmes, des exceptions existent néanmoins, sous conditions, pour certaines tâches des forces de l’ordre (luttre contre le terrorisme, la traite, l’exploitation sexuelle, etc.). 

Exigences de transparence pour les développeurs de LLM 

Le projet de réglementation de l’IA dans l’Union Européenne ne date pas d’hier. La première proposition de cadre légal avait été publiée au printemps 2021. Depuis, ce domaine technologique a fait des progrès considérables. Avec notamment le lancement de chatbots dopés à l’intelligence artificielle génératives, tels que ChatGPT. Le version finalisée de l’AI Act intègre ainsi ces systèmes reposant sur des grands modèles de langage (LLM) ou, selon la formulation des législateurs européens, sur des systèmes généraux d’intelligence artificielle (typiquement GPT-4). Le texte stipule des exigences de transparence pour les développeurs de tels modèles. L'objectif consiste, entre autres, à veiller à ce que les développeurs partagent des informations importantes avec les fournisseurs d'IA en aval, a précisé dans un post sur Linkedin le Commissaire européen Thierry Breton. Il s’agit notamment de mettre à jour la documentation technique, de se conformer à la législation de l’UE sur les droits d’auteurs et de diffuser des résumés détaillés sur le contenu utilisé pour leur formation. Des obligations plus strictes (évaluation et atténuation des risques systémiques, réalisation de tests, garanties de cybersécurité, etc.) concerneront les systèmes présentant un risque systémique. «Nous nous sommes alignés sur la possibilité de tester les systèmes d'IA à haut risque dans des conditions réelles (en dehors du laboratoire, avec les garanties nécessaires)», explique Thierry Breton. 

Sanctions prévues 

Enfin, l’AI Act de l’UE prévoit la création d’un bureau de l'IA au sein de la Commission à des fins de supervision et pour faire appliquer les sanctions. En fonction de l'infraction et de la taille de l'organisation, les sanctions peuvent aller de 7,5 millions d'euros, ou 1,5% du chiffre d'affaires mondial, à 35 millions d'euros, ou 7% du chiffre d'affaires mondial.

Une loi à l’accouchement difficile

En projet depuis des années, l’AI Act a été compliqué à mettre sur pied et à finaliser. Le dernier round des négociations a duré 38 heures, fait savoir Thierry Breton. Il s’agissait de trouver un compromis visant à réglementer sans pénaliser l’innovation. On sait que les milieux économiques et de la tech ont exercé passablement de pression, craignant un impact négatif sur la compétitivité des entreprises européennes. Des préoccupations partagées par certains dirigeants des pays membres. Le site spécialisé Euroactiv a rapporté mi-novembre que le texte était menacé par les représentants de plusieurs Etats, notamment la France, l'Allemagne et l'Italie, qui se seraient exprimés contre tout type de réglementation pour les grands modèles de langage (LLM).  

Des lacunes pointées du doigt 

L’accord européen sur la réglementation de l’IA ne laisse pas insensibles les organisations de défense des droits civils et de consommateurs. AlgorithmWatch observe d'importantes lacunes dans le texte adopté, comme le fait que les développeurs d'IA ont eux-mêmes leur mot à dire sur la question de savoir si leurs systèmes sont considérés comme étant à haut risque. Sont aussi pointées du doigt les exceptions pour les systèmes à haut risque utilisés par les forces de l'ordre. «Alors qu'un accord sur la loi sur l'IA a été annoncé, les projets plus techniques qui seront rédigés au cours des prochaines semaines seront décisifs. Non seulement des dispositions clés seront clarifiées, mais il se pourrait également qu'un grand nombre de détails importants doivent encore faire l'objet d'un accord au cours des prochaines semaines», souligne AlgorithmWatch.

De son côté, le Bureau européen des unions de consommateurs (BEUC) juge le texte adopté «insuffisant compte tenu de l'ampleur des risques contre lesquels les consommateurs seront mal protégés à l'avenir». Le BEUC déplore notamment la non interdiction des systèmes d'IA capables d'identifier et d'analyser les sentiments des consommateurs. De même que l’absence d'obligation d'auditer les LLM par un tiers indépendant. Le BEUC constate que ces modèles ne seront pas, non plus, soumis à des exigences de transparence suffisantes pour garantir un contrôle public.
 

Tags
Webcode
uBH3c4Tf