Explainable AI

Google apporte de la transparence à ses outils d'intelligence artificielle

Avec l’ensemble d'outils et de frameworks «Explainable AI», Google veut aider les entreprises à comprendre pourquoi un modèle de machine learning prend ses décisions. De quoi renforcer la confiance des utilisateurs de technologies basées sur des algorithmes d'intelligence artificielle.

(Source: mike ledray / Fotolia.com)
(Source: mike ledray / Fotolia.com)

Rendre les systèmes d'intelligence artificielle transparents devrait permettre de renforcer la confiance des utilisateurs de ces technologies. Or, être capable d’expliquer comment ces algorithmes fonctionnent représente un défi colossal pour les entreprises. Google se propose d’aider sur ce point les organisations qui font appel aux solutions d’IA de son cloud. L’ensemble d'outils et de frameworks regroupés sous l’étiquette «Explainable AI» vise à aider les utilisateurs à comprendre comment un modèle d'apprentissage machine parvient à ses conclusions.

Les outils Explainable AI permettent entre autres de comprendre les attributions de fonctionnalités dans les tables d’AutoML, le service de Google permettant de créer des modèles de machine learning. Il est en outre possible d’étudier visuellement le comportement du modèle. La fonction «AI Explanations» quantifie la contribution de chaque facteur de données à la production d'un modèle d'apprentissage machine. La firme de Mountain View explique que ces résumés ont pour vocation d’aider les entreprises à comprendre pourquoi un modèle a pris ses décisions. Google se veut néanmoins transparent quant aux limites de cet ensemble d’outils. «Bien sûr, toute méthode d'explication a ses limites. D'une part, les explications de l'IA reflètent les tendances que le modèle a trouvé dans les données, mais elles ne révèlent aucune relation fondamentale dans votre échantillon de données, votre population ou votre application», souligne Tracy Frey, responsable de la stratégie IA chez Google.

L’opacité des systèmes d’intelligence artificielle qui produisent des recommandations, décisions et actions automatisées peut nuire au bon fonctionnement de l’entreprise et à la confiance des clients et collaborateurs. ICTjournal détaille dans son dossier IA & éthique les enjeux et dimensions de ce nouveau chantier.

Tags
Webcode
DPF8_161816