Innovation

IBM ouvre la boîte-noire de l’intelligence artificielle

| mise à jour

Difficile d’accepter ce qu’on ne comprend pas. Big Blue en est convaincu et lance un outil visuel pour expliquer les résultats fournis par les intelligences artificielles hébergées sur IBM Cloud.

Explications de l'outil Trust and Transparency d'IBM à la question "Pourquoi ce client a-t-il obtenu son prêt?" (Source: IBM)
Explications de l'outil Trust and Transparency d'IBM à la question "Pourquoi ce client a-t-il obtenu son prêt?" (Source: IBM)

Dans une étude que nous avions décortiquée en juillet dernier , PWC prévenait que l’intelligence artificielle n’aura pas l’essor qu’on lui promet si elle ne parvient pas à gagner la confiance des utilisateurs finaux. Le client d’un assureur n’acceptera par exemple jamais d’entendre son conseiller lui répondre «c’est le résultat donné par notre IA» suite à un refus d’indemnisation de sinistre. Les algorithmes ne peuvent être des boîtes noires, surtout lorsqu’ils prennent une décision.

IBM l’a compris et a présenté ce 19 septembre, par la voix de son architecte en chef Ruchir Puri, un nouveau tableau de bord pour les entreprises qui utilisent l’intelligence artificielle sur le cloud de Big Blue. Baptisé «Trust and Transparency» ce service analyse «la façon dont l'intelligence artificielle prend des décisions» et retranscrit visuellement les résultats obtenus sur un dashboard compréhensible par les utilisateurs métier (voir photo ci-dessus). Ce nouvel outil propose également «des recommandations sur la façon d'atténuer tout biais potentiellement dommageable», écrit encore le dirigeant. Dans un tutoriel mis en ligne dont est extraite l’image ci-dessous, IBM indique par exemple que l’algorithme n’a pas été entraîné sur suffisamment de données concernant des clients de 18 à 23 ans pour que sa réponse soit pertinente.

Ces fonctionnalités pourront avoir pour objet toute intelligence artificielle hébergée par IBM Cloud quelque soit l’environnement de développement ou le framework (TensorFlow, Keras, SparkML) sur lesquels elle a été construite précise l’auteur du billet. Une annonce qui intervient un mois après que sept chercheurs d’IBM ont proposé, à travers un livre blanc, aux fournisseurs d’intelligence artificielles de remplir un document normalisé (SDoC pour supplier's declaration of conformity) indiquant «le but, le rendement, la sûreté, la sécurité et la provenance» de leurs solutions.

IBM n’est pas le seul grand du secteur à s’inquiéter du risque que l’absence de transparence fait peser sur l’intelligence artificielle. Ce 18 septembre, SAP a ainsi indiqué avoir créé un comité consultatif d’experts externes à l’entreprise allemande pour «veiller à l'adoption de ses principes directeurs pour l'intelligence artificielle et à leur développement.»

Webcode
DPF8_108033