IA & éthique

Anna Jobin, EPFZ: «Certains principes éthiques sont quasiment absents des chartes sur l’IA»

Des chercheurs de l’EPFZ viennent de publier une étude portant sur des dizaines de chartes éthiques en matière d’intelligence artificielle. Co-auteure de l’étude, Anna Jobin en explique les principaux enseignements.

Anna Jobin est collaboratrice scientifique à l’EPFZ (Department of Health Sciences & Technology). (Source: EPFZ)
Anna Jobin est collaboratrice scientifique à l’EPFZ (Department of Health Sciences & Technology). (Source: EPFZ)

Pour en savoir plus sur l’étude: >> Quels principes éthiques pour gouverner l’intelligence artificielle?

A lire >> dossier complet consacré au thème IA & éthique

Qu’est ce qui a motivé cette recherche?

Nous avons démarré il y a une année. Nous avions la volonté de travailler sur les aspects éthiques de l’IA et nous nous sommes penchés sur les publications en la matière. Nous avons vite constaté qu’il ne se passe pratiquement pas un mois sans qu’un organisme privé ou public ne publie ses propres guidelines en la matière. Il nous a paru important de les analyser, de les comparer et d’en dresser le panorama pour clarifier de quoi chacun parle. Nous avons donc rassemblé jusqu’à mi-avril plus de 80 documents proposant des principes éthiques pour l’IA - il y en a sans doute déjà davantage aujourd’hui…

Qu’avez-vous découvert en explorant ces documents?

A première vue, il a une convergence importante entre les documents, certains principes comme la transparence ou la sphère privée apparaissant dans la plupart d’entre eux. Il est toutefois notable que même ces dimensions ne sont pas citées dans l’ensemble des guidelines. Nous avons aussi été surpris que certains principes en soient quasiment absents, comme la durabilité et l’impact de l’IA sur l’environnement, un sujet important qu’il s’agisse du coût énergétique pour entraîner les algorithmes ou au contraire de l’utilité de l’IA pour optimiser la consommation. Alors que beaucoup craignent les conséquences de l’IA sur l’emploi, rares sont également les guidelines qui abordent son impact sur la solidarité et les systèmes de protection sociale. J’ajouterais que certaines publications se distinguent par le processus participatif qu’elles ont mis en place pour aboutir à des principes éthiques.

Dans quels domaines avez-vous constaté les plus grandes divergences entre les guidelines?

Nous ne nous sommes pas posé la question sous cet angle. Cela dit, nous avons constaté que, derrière un principe commun, les organismes entendent souvent des choses très différentes. D’ou l’importance d’être précis.

Les organismes se contentent-ils de principes éthiques très généraux ou vont-ils dans le concret?

Certains donnent des exemples d’application très concrets, ce qui montre que c’est possible. On y trouve notamment des indications sur ce qui constituerait une ligne rouge dans certains domaines. En revanche, beaucoup de publications font l’impasse sur les contradictions qui peuvent apparaître dans la pratique. Ainsi, la nécessité de disposer d’une grande quantité de données variées pour éviter des biais peut typiquement s’opposer à la volonté d’en collecter le moins possible par souci de la sphère privée. Rares sont les documents à expliquer comment résoudre ces contradictions. On constate également les limites de principes éthiques généraux ne faisant pas de distinction sectorielle. L’emploi d’une IA a un tout autre impact si on l’emploie pour faire un diagnostic médical, pour optimiser la chaîne d’approvisionnement ou dans le domaine la justice…

Webcode
DPF8_158690