Intelligence artificielle

L’éthique domine les débats des Machine Learning Days de l’EPFL

Ceux qui produisent de l’intelligence artificielle marchent sur des oeufs. Le changement de ton et de contenus entre les éditions 2018 et 2019 des Applied Machine Learning Days qui viennent de se clore à l’EPFL en sont l’illustration. S’éloignant de l’enthousiasme débordant sur les incroyables capacités de l’intelligence artificielle, tous les intervenants ont cette année enrobé leur pleinière de précautions quant à son utilisation «pour faire le bien».

Garry Kasparov sur la scène du Swiss Tech Convention Center (Source: ©samueldevantery.com)
Garry Kasparov sur la scène du Swiss Tech Convention Center (Source: ©samueldevantery.com)

L’intelligence artificielle aurait-elle besoin d’un psy ? En février dernier, les présentations des Applied Machine Learning Days (AMLD) présentaient les dernières avancées appliquées du machine learning, dans l’imagerie médicale, dans la recherche, ou dans l’industrie. L’événement se voulait très concret, d’où son nom. Un an, un scandale Cambridge Analytica et un RGPD plus tard, un virage s’est opéré. Les intervenants de l’édition 2019, qui a fermé ses portes ce 29 janvier, étaient moins là pour dire «regardez ce qu’on sait faire avec l’IA» que pour affirmer «regardez, nous utilisons l’IA pour faire le bien».

Dès la conférence d’introduction, le vice-président de Google en charge de l’IA et de la santé a donné le ton. Dans une pleinière intitulé «Deep learning to solve challenging problems», Jeff Dean a voulu montrer comment les intelligences artificielles développées par Google s’attaquent à onze des quatorze «grands défis pour le XXIe siècle» lancées, en 2011, par l’Académie nationale d’ingénierie des Etats-Unis: les voitures autonomes de sa filiale Waymo amélioreraient les infrastructures urbaines ; ses travaux d'imagerie sur la rétinopathie diabétique accélèrent et augmentent les capacités de diagnostics des médecins ; outil de machine learning open source créé par Google, TensorFlow a permis la création d’une appli que des agriculteurs africains utilisent afin de détecter des maladies dans leurs champs en prenant simplement des photo des feuilles de leurs plantes avec leur smartphone… Le dirigeant assure ainsi que son objectif est la démocratisation de l’IA pour que ces résultats puissent être obtenus par le plus grand nombre et sans l’intervention d’un expert en machine learning. L’année dernière, Google était déjà monté sur la scène des AMLD avec une présentation beaucoup plus m’as-tu-vu alors titrée «Applied Machine Learning at Google».

Durant son talk sur les impacts de l’intelligence artificielle dans l’industrie, Costas Bekas, qui dirige le groupe Foundations of Cognitive Computing chez IBM, a expliqué en quoi la technologie va bouleverser la gestion du savoir dans les entreprises avant d’insister sur un point: «Je crois vraiment que l’humain sera au centre de cette révolution, nous concevons des intelligence artificielle pour les humains.» Après lui, le responsable du Swiss Re Institute a directement capté l’attention de l’audience avec cette phrase: «Une société numérique, c’est des données, des gens et des réseaux, qui subissent l’influence de machines... et cela n’est pas sans risques.» Les deux principaux étant selon lui la cybercriminalité et les mauvaises pratiques algorithmiques (qui peuvent avoir de grandes conséquences dans un bout de code open source). A travers la voix d’Antoine Bordes, directeur de recherche au laboratoire d’intelligence de Facebook à Paris, le réseau social par qui la crise de confiance est arrivée est venu présenter les avancées de ses agents conversationnels, capables d’aller puiser dans Wikipédia pour enrichir ses conversations avec un utilisateur. Lui aussi, a fini par un slide soulignant (en gros, en rouge) l’importance de la confiance, de la sécurité et de la transparence.

Même dans les nombreuses sessions dédiées à des domaines particuliers (AI & Nutrition, AI & Industry, AI & Cities…), en plus petits comités, l’éthique était conviée. Un chercheur de Google y a notamment présenté ses travaux sur le Federated Learning, qui consiste à entraîner les algorithmes directement sur les appareils individuels et à agréger les résultats dans le cloud avant de redéployer le modèle ainsi créé pour que les données des utilisateurs restent chez les utilisateurs. «Nous ne transférons plus les données vers l'IA, nous transférons l'IA vers les données», a-t-il résumé tandis que dans la salle d'à côté, le responsable Data Science du supermarché en ligne LeShop appuyait sur le fait que la personnalisation ne pouvait se faire sans l’aval du client.

Évidemment conscients de l’importance centrale de cette question de l’utilisation à bon escient de l’IA, les organisateurs de l’événement ont également convié des speakers favorisant la prise de recul face aux avancées de la technologie. L’activiste Zeynep Tufekci a ainsi passablement égratigné Facebook et Youtube dont les algorithmes choisissent de nous montrer les contenus les plus partageables et «likables», ce qui fait la part belle au sensationnalisme et aux extrémismes. Selon elle «la lutte contre les biais est un combat politique» et «un solide programme de recherche est nécessaire pour offrir aux gens la possibilité de nourrir des intelligence artificielle à des intelligences artificielles sans pour autant les soumettre à une surveillance, pour leur offrir les mêmes services, mais tout en respectant leur intimité.»

C’est finalement Garry Kasparov qui s’est montré le plus optimiste sur la scène du Swiss Tech Convention Center. Le champion d’échec vaincu par Deep Blue en 1997 a même invité la salle comble à faire preuve d’indulgence envers les machines: «Les gens ne sont pas à l'aise si la technologie n'est pas parfaite, mais elle n’a pas besoin d’être parfaite, elle doit seulement faire moins d’erreur que l’humain.» S’il consent que l’intelligence artificielle va détruire des emplois, il affirme que «nous ne serons pas remplacés, nous serons promus.» Selon lui, une immense majorité des travailleurs ne font pas appel à leur créativité et dépensent leur énergie dans des tâches répétitives. L’avenir se trouve donc dans l’association de l’inventivité humaine et de la puissance des algorithmes les plus avancés. «Les machines ont besoin des humains pour décider des risques. Et sans risques, il n'y a pas de récompenses, nous devons établir le bon équilibre entre le risque et les récompenses si nous voulons bénéficier des avantages offerts par la technologie», a-t-il conclu.

Webcode
DPF8_123637