L'avocate et professeure Anne-Sophie Morand en interview

Pourquoi le règlement européen sur l'IA concerne aussi la Suisse

par René Jaun et (traduction/adaptation ICTjournal)

Les intelligences artificielles ne vont pas remplacer les avocats, mais elles vont fortement modifier leur travail - Anne-Sophie Morand en est convaincue. En interview avec nos collègues de la Netzwoche, l'avocate et enseignante explique comment la loi sur l'IA pourrait avoir des répercussions sur la Suisse et combien il est difficile de se défendre contre une discrimination par une IA.

Anne-Sophie Morand, avocate chez Walder Wyss et chargée de cours à la Haute Ecole de Lucerne.
Anne-Sophie Morand, avocate chez Walder Wyss et chargée de cours à la Haute Ecole de Lucerne.

Depuis ChatGPT, les applications d'IA ont le vent en poupe. Vous vous intéressez depuis longtemps à l'intelligence artificielle et à ses capacités. Que pensez-vous de ChatGPT et de l'engouement qu'il suscite?

De mon point de vue, ChatGPT ou le modèle de langage GPT-4 est avant tout une démonstration impressionnante de l'état actuel de la recherche en IA. L'outil nous montre ce qu'il est possible de faire aujourd'hui lorsque le deep learning est doté de ressources de calcul colossales et d'une énorme quantité de données. L'engouement récent pour le générateur de texte ChatGPT est avant tout lié au fait que c'est la première fois que le grand public peut utiliser lui-même un tel outil et se sent directement concerné - ce n'était pas le cas auparavant. Il est effectivement impressionnant de voir ce que des outils comme ChatGPT ou Dall-E peuvent produire, mais ces outils ne sont que les précurseurs d'une très grande vague d'applications d'IA. Je suis convaincue que de nombreux modèles d'affaires disruptifs vont bouleverser des pans entiers de l'économie dans un avenir proche. Les responsables feraient donc bien d'être conscients des conséquences possibles de l'IA sur leur secteur. Partout où des personnes sont assises devant des écrans, l'IA se manifestera d'une manière ou d'une autre. Je trouve d'ailleurs que le terme d'IA n'est pas sans poser problème.

Pourquoi ce terme est-il problématique?

Parce qu'il suggère, premièrement, que ces systèmes sont au même niveau que les hommes qui les ont construits et, deuxièmement, que cette intelligence nous remplacera un jour, comme une prothèse remplace notre genou. Pour ma part, je préfère le terme d'"intelligence machine". En employant ce terme, nous sommes beaucoup plus clairs sur le fait que derrière ChatGPT se cache un type d'intelligence particulier et très différent. Ce que nous voyons comme texte, c'est-à-dire ce que la machine débite, ne sont en réalité que des nombres avec des vecteurs qui indiquent comment les mots sont reliés entre eux. Cela n'a pas grand-chose à voir avec l'intelligence naturelle de l'homme. Pour moi, ChatGPT est donc un générateur de texte avancé, mais il n'est pas en mesure de remplacer complètement l'intelligence ou l'expérience humaine.

Qu'est-ce qui vous dérange dans le discours des médias sur ChatGPT et l'IA en général?

Personnellement, ce qui me dérange, c'est que des dangers réels et absurdes sont mis dans le même panier. Le problème de la désinformation liée aux deepfakes, qui peuvent déstabiliser les démocraties, est par exemple à prendre vraiment au sérieux, tandis que l'idée que les systèmes d'IA rendent l'homme obsolète et prennent le contrôle du monde est trop extrême et est amplifiée par les médias. L'amalgame entre les différents dangers fait obstacle aux discussions nécessaires et fondées sur les risques réels. De même, je suis gênée par le fait que les médias attribuent déjà une conscience à des systèmes d'IA comme ChatGPT. Des outils comme ChatGPT sont en fait des générateurs de textes associatifs sans morale, qui répètent tout comme des perroquets stochastiques et sont entraînés à simuler des conversations. Ils n'ont pas de sentiments et ne connaissent pas non plus les limites entre la fiction et les faits. Autrement dit, il arrive que ChatGPT invente des choses ou qu'il ait des hallucinations. En outre, ChatGPT manque d'intelligence émotionnelle. L'outil peut résoudre des problèmes difficiles sur la base d'une grande quantité de données, mais il n'a pas la capacité de comprendre globalement des problèmes humains complexes - en tout cas pas à l'heure actuelle.

Quand et comment utilisez-vous déjà l'IA aujourd'hui dans votre travail d'avocate?

Mon employeur utilise déjà l'IA de manière ponctuelle, par exemple pour l'analyse de grandes collections de documents. Un outil de traitement de documents basé sur l'IA peut passer en revue des milliers de pages de contrats en quelques secondes et repérer les clauses contractuelles pertinentes, après que nous avons entraîné l'algorithme au préalable avec des documents étiquetés manuellement. L'outil de traduction "DeepL" me semble également très utile.

Qu'en est-il de ChatGTP et d'autres outils similaires?

Ils peuvent aussi être utiles aux avocats de manière isolée, par exemple pour résumer simplement des textes. Pour le conseil juridique, ChatGPT ne devrait être utilisé qu'avec prudence à l'heure actuelle. Lors de mes tests, ChatGPT s'est d'abord très souvent référé au droit allemand et, ensuite, a tout simplement cité à plusieurs reprises des articles erronés - et ce, bien que mes «prompts» aient été formulées très clairement. Si nous voulons utiliser des outils appropriés, ils devraient être entraînés avec des données sur le droit suisse. A cet égard, je trouve "DeepJudge" très intéressant. Il s'agit d'un outil d'une start-up zurichoise qui permet notamment d'analyser des documents et de les comparer avec des textes de loi, des jugements et des contrats déjà analysés auparavant.

On entend parler d'entreprises qui développent des avocats IA. Qu'en pensez-vous? L'intelligence artificielle menace-t-elle votre profession?

Il existe effectivement les premières versions de ce que l'on appelle les "Robot-Lawyers" ou "avocats IA", comme l'avocat IA américain "DoNotPay", qui se présente comme "le premier avocat robot au monde". Aucun procès n'a toutefois encore eu lieu avec un tel avocat IA, ce dernier n'étant en réalité pas admis au tribunal. Souvent, le rapport avocat-client est aussi une relation personnelle - les soft skills restent donc très importantes dans le domaine juridique. Et il n’est pas facile de les remplacer par un outil d'IA. Enfin, les systèmes d'IA ne pourront pas non plus prendre en charge l'intégralité de mon travail, parce que le droit n'est pas une science exacte comme les mathématiques et que cette inexactitude ou cette considération au cas par cas sont souvent voulues. Je reste néanmoins convaincue que les technologies d'intelligence artificielle vont fortement modifier le travail des avocats. Au fur et à mesure que leurs capacités augmenteront, elles effectueront de plus en plus de tâches de manière autonome. Nous deviendrons ainsi de plus en plus des "éditeurs" plutôt que des "créateurs". Nous laissons donc les systèmes d'IA créer le contenu et travaillons ensuite avec cet output ou éditons le résultat. 

Avec l'AI Act, l'UE souhaite réglementer l'utilisation et le recours à l'intelligence artificielle. N'est-elle pas un peu en retard?

En avril 2021, la Commission européenne a été le premier législateur à présenter une proposition complète de réglementation de l'IA avec le projet AI Act. Avec ce projet de loi, la Commission européenne, le Parlement européen et également les ministères compétents tentent de trouver un équilibre, sachant que le AI Act doit d'une part garantir que les personnes concernées ne subissent aucun préjudice du fait de l'utilisation de systèmes d'IA, et d'autre part encourager davantage l'innovation et donner le plus de place possible au développement et à l'utilisation de l'IA. Avec des conceptions aussi divergentes, le processus législatif prend un peu plus de temps. Mais de mon point de vue, ce ralentissement n'est pas une mauvaise chose, puisqu'il a permis d'intégrer immédiatement les développements actuels dans le domaine de l'IA, notamment ceux concernant l'IA générative. De plus, nous avons eu plus de temps pour discuter de questions fondamentales.

Qu'entendez-vous par là?

Le Tech Trends Report 2023 du Future Today Institute résume très bien et clairement les questions que nous devons toujours nous poser lors de l'utilisation de systèmes d'IA. Sommes-nous préparés à un monde dans lequel nos tâches pourraient être complétées ou entièrement automatisées par l'IA? Pouvons-nous expliquer les applications d'IA que nous utilisons? Et quel risque prenons-nous si nous ne le pouvons pas? En d'autres termes, ce n'est que lorsque nous aurons clarifié le type de monde dans lequel nous souhaitons vivre que nous pourrons décider de la manière dont nous voulons réglementer l'IA. Et même alors, la tâche reste complexe au vu de la rapidité des progrès technologiques.

La Suisse participe aux négociations du Conseil de l'Europe en vue d'une convention sur l'IA. Comment peut-elle ou doit-elle influencer les négociations?

La Suisse est membre du Comité européen sur l'IA (CAI). Même si elle n'est qu'un pays parmi d'autres, elle pourrait tout à fait mettre l'accent sur la protection des valeurs basées sur les droits de l'homme, la démocratie et l'État de droit.

Quel sera l'impact de l'AI Act sur la Suisse?

Même si l'AI Act n'est pas directement applicable à la Suisse, il déploie dans certains scénarios un effet extraterritorial et s'applique donc en partie aussi aux entreprises suisses. C'est le cas lorsque des fournisseurs suisses commercialisent des systèmes d'IA dans l'UE ou lorsque des fournisseurs et utilisateurs suisses utilisent le résultat produit par le système d'IA dans l'UE. La plupart des fournisseurs d'IA ne développeront pas leurs produits uniquement pour la Suisse, c'est pourquoi les nouvelles normes européennes se diffuseront également en Suisse. Sans compter que de nombreuses entreprises de notre pays envisageront de développer leurs outils d'IA en conformité avec la réglementation européenne, car elles souhaitent également proposer leurs systèmes dans l'UE.

Qu'en est-il d'une loi suisse sur l'IA?

Ces trois dernières années, la Confédération a réagi à l'importance croissante de l'IA, elle a répondu à quelques interventions sur le sujet, publié des lignes directrices sur les risques et les opportunités et constitué des comités d'experts. Le législateur s'est également emparé du sujet, comme on peut le voir par exemple avec le postulat «Situation juridique de l'intelligence artificielle - clarifier les incertitudes, encourager l'innovation!» du conseiller national Marcel Dobler. Les développements au sein de l'UE avec l'AI Act ne conduisent sans doute pas la Suisse à suivre son exemple en concevant sa propre loi sur l'IA - mais avec l'entrée en vigueur de ce règlement européen, un débat réfléchi et basé sur des preuves sur la réglementation de l'IA en Suisse devient inévitable, d'autant plus que la recherche et la politique exigent de plus en plus de conditions cadres pour une utilisation raisonnée de l'IA. La politique suisse ne devrait pas attendre plus longtemps en ce qui concerne la réglementation de l'IA, afin d'éviter l'insécurité juridique lors de l'utilisation de systèmes d'IA. C'est pourquoi je pense que la mise en place du "réseau de compétences en intelligence artificielle" par la Confédération est également très importante.

À quoi pourrait ressembler une telle réglementation de l'IA?

D'un point de vue juridique, il y a un certain besoin d'agir en Suisse et des réglementations sectorielles doivent être révisées. Il ne me paraît toutefois pas judicieux de le faire au moyen d'une réglementation horizontale comme dans l'UE. Il est plus sensé de procéder à des compléments ponctuels de lois déjà existantes. Par exemple, le droit dans le domaine des dispositifs médicaux est encore en retard sur la technologie. Compte tenu de l'évolution technique rapide de l'IA, les adaptations du droit suisse devraient être formulées de manière aussi neutre que possible sur le plan technologique. On peut aussi envisager de procéder à certaines adaptations - là où c'est possible - au niveau des ordonnances, afin que le Conseil fédéral puisse faire face rapidement aux développements actuels et futurs.

J'ai l'impression que la Suisse se montre très défensive (ou réservée) en matière de réglementation de l'IA. Qu'en est-il?

L'impression n'est pas erronée. Il faut toutefois constater que la Suisse agit de manière plus libérale que l'UE en matière de réglementation. Dans notre pays, la réglementation suit une approche basée sur des principes et neutre sur le plan technologique : On ne réglemente donc pas toutes les nouvelles technologies de manière individuelle et détaillée, mais on mise jusqu'à présent sur une solide structure de base de normes juridiques qui peuvent également être utilisées pour de nouvelles situations.

Les hommes et femmes politiques suisses sont-ils prêts à aborder le thème de l'IA?

Au Parlement fédéral siègent quelques politiciennes et politiciens très affûtés en matière de numérique, notamment les membres du groupe parlementaire Parldigi. Mais à mon avis, cela ne suffit pas. Étant donné qu'en fin de compte, c'est la majorité qui décide au Parlement, tous les hommes et femmes politiques devront à l'avenir être à la hauteur dans le domaine de la numérisation et disposer d'une compréhension fondamentale de l'IA et de son fonctionnement. Enfin, ils doivent être en mesure d'évaluer les avantages et les risques potentiels de l'IA pour prendre des décisions éclairées sur la façon dont l'IA peut et doit être utilisée dans les domaines les plus divers.

Parmi les préoccupations souvent exprimées à propos des applications de l'IA figure la peur de la discrimination. Les personnes en Suisse peuvent-elles se défendre juridiquement contre la discrimination par l'IA?

En principe, diverses dispositions juridiques peuvent déjà être invoquées en cas de discrimination par des systèmes d'IA. La protection de la personnalité en droit privé, les dispositions de la loi sur l'égalité entre femmes et hommes, celles de la loi sur l'égalité des personnes handicapées, les dispositions pénales sur la discrimination et l'incitation à la haine ou encore la nouvelle loi sur la protection des données, qui entrera en vigueur le 1er septembre 2023, sont pertinentes. Tout cela est bien beau, mais il se peut que les systèmes d'IA provoquent une discrimination cachée et, dans certaines circonstances, une discrimination qui n'est reconnaissable que par ses effets. Il y a discrimination cachée lorsque les critères ou les données utilisés semblent neutres à première vue, mais qu'en fin de compte, ils discriminent des personnes qui présentent des caractéristiques protégées - en raison de leur origine, de leur sexe, de leur âge, etc. Le problème ici est qu'en tant que personne concernée, je n'ai guère la possibilité de prouver une telle discrimination. Souvent, je ne sais même pas que j'ai été discriminé par un système d'IA en raison d'une certaine caractéristique.

A-t-on un moyen d'améliorer cette situation?

Il est possible que les développements technologiques actuels contribuent à la création future d'une loi générale anti-discrimination pour les particuliers, comme c'est déjà le cas dans d'autres pays européens. Dans la perspective de l'AI Act, il pourrait également être utile d'introduire une obligation générale d'informer les personnes concernées chaque fois qu'elles interagissent avec une IA plutôt qu'avec un être humain. Dans la nouvelle loi sur la protection des données, nous avons déjà, avec l'article 21 LPD, une disposition qui va dans ce sens : pour les décisions individuelles automatisées qui sont liées à une conséquence juridique ou qui affectent considérablement la personne, le responsable doit respecter des obligations d'information envers une personne concernée. Les personnes concernées peuvent par la suite demander qu'une décision correspondante soit examinée par une personne physique, par exemple parce qu'elles soupçonnent qu'une IA les a désavantagées en raison de préjugés. D'une manière générale, on peut dire que la transparence est importante pour les utilisateurs d'applications d'IA, afin qu'ils puissent comprendre avec quelles données un algorithme a été entraîné et comment il est construit.

De quoi a-t-on besoin en dehors des adaptations légales?

Les systèmes d'IA se basent sur les données avec lesquelles ils ont été entraînés. Si ces données sont erronées ou déformées, cela peut conduire à des résultats imprécis ou erronés. Mais les personnes qui programment sont également importantes. Lors de l'entraînement d'algorithmes, des préjugés sexistes ou racistes peuvent se glisser - consciemment ou inconsciemment - dans le processus. C'est pourquoi je pense qu'il faut être plus attentif à la formation des programmeurs. Les spécialistes de l'IA auront besoin à l'avenir d'une sorte de formation éthique de base. Ils doivent comprendre, au moins dans les grandes lignes, comment des distorsions cognitives peuvent affecter la pensée humaine et les effets de biais dans les algorithmes, afin de mieux reconnaître leurs propres préjugés.

A propos de la personne
Anne-Sophie Morand est avocate au sein du cabinet d'avocats Walder Wyss. Elle est spécialisée dans les questions numériques telles que la protection des données et l'intelligence artificielle. Elle donne également des cours sur ces sujets à la Haute école de Lucerne (HSLU), rédige des publications spécialisées et anime des manifestations. Avant de devenir avocate, elle a notamment travaillé pour le Préposé fédéral à la protection des données et à la transparence (PFPDT) et le Parlement suisse. Anne-Sophie Morand a étudié le droit aux universités de Lucerne et de Neuchâtel. Après avoir terminé ses études, elle a travaillé comme assistante scientifique à l'Université de Lucerne où elle a rédigé une thèse dans le domaine de la protection de la personnalité et du sponsoring sportif, qui a été récompensée par le Prix suisse du droit du sport. Elle a ensuite obtenu un LLM en droit des technologies de l'information à l'université d'Édimbourg.

 

Tags
Webcode
ST6hRQb6