Risques éthiques de l’IA

Ponte du machine learning, Samy Bengio claque la porte de Google Brain

C’est l'hécatombe chez les chercheurs en intelligence artificielle de Google. Après les licenciements controversés des responsables de la branche éthique et IA de la firme, Samy Bengio, cofondateur de l’unité Google Brain (passé par l’Idiap et l’EPFL), a présenté sa démission. Son départ semble lié au malaise de Google face aux risques éthiques de l’IA pointés par ses ex-chercheurs.

(Source: Arthur Osipyan on Unsplash)
(Source: Arthur Osipyan on Unsplash)

Chercheur de renom en machine learning engagé par Google en 2007, Samy Bengio a démissionné, selon une information de Reuters. L’agence de presse a eu accès à un e-mail interne et eu confirmation de la démission du chercheur dirigeant et cofondateur de l’unité Google Brain. Ce départ serait lié au licenciement controversé de sa collègue dont il était le supérieur direct, Timnit Gebru, survenu en décembre dernier. Margaret Mitchell, qui avait vivement contesté le départ forcé de sa collègue, a également été remerciée il y peu. Toutes deux étaient responsables de la branche éthique et IA de la firme.

Ancien chercheur à l’Idiap

Avant d’officier chez Google, Samy Bengio a travaillé à l’Idiap de Martigny et à l’EPFL. On lui doit notamment le co-développement de Torch, l'ancêtre de PyTorch, l'un des frameworks de machine learning les plus populaires. Dans son mail annonçant sa démission, Samy Bengio n’évoque pas les licenciements de ses collègues. Il avait toutefois publiquement fait savoir, sur Facebook, sa stupéfaction suite au débauchage de Timnit Gebru, acté sans que les dirigeants de Google ne le consulte.

Conflits autour des risques éthiques des modèles de traitement du langage

Sur leur blog Medium, des employés de Google ont assuré que Timnit Gebru, notamment spécialisée dans les biais algorithmiques, avait été licenciée à cause de conflits autour d’une étude dont les dirigeants de Google Research souhaitent bloquer la publication. Le papier de recherche en question détaille les considérations éthiques liées aux modèles de traitement automatique du langage naturel les plus populaires (tels que BERT et ELMo). Le MIT Technology Review a eu accès à l’étude et indique que l'article remet en question à la fois les coûts environnementaux et les biais inhérents aux modèles linguistiques basés sur une énorme quantité de données.

Officiellement, Google critique l’étude car elle ne mentionnerait pas les travaux récents sur la manière de rendre les grands modèles de langage plus efficaces sur le plan énergétique et d'atténuer les problèmes de biais. C’est faux, selon le MIT Technology Review. L’étude y ferait référence mais en précisant que les efforts en la matière ne sont pas encore suffisants. Emily M. Bender, co-auteure de l'étude, confie à la revue spécialisée qu'elle craint que les agissements de Google n'aient un effet dissuasif sur les futures recherches en matière d'éthique de l'IA.

Tags
Webcode
DPF8_212942