Intelligence artificielle

Temenos veut ouvrir la boîte noire de l’IA bancaire

L’éditeur bancaire genevois Temenos rachète Logical Glue, fournisseur d’une plateforme d’IA explicable. A quoi se réfère ce concept? Explications.

(Source: Pixabay)
(Source: Pixabay)

L’éditeur bancaire genevois Temenos a annoncé le rachat de Logical Glue, fournisseur londonien d’une plateforme d’intelligence artificielle explicable. Une opération d’un montant de 12 millions de livres (environ 14,7 millions de francs). La plateforme de Logical Glue sera immédiatement intégrée à la plateforme cloud de Temenos. La technologie sera exploitée pour différents cas d’usage, dont la notation de crédit, les robots-conseillers, la tarification intelligente, la recommandation des produits ou la détection des fraudes en temps réel. La solution permettra par exemple aux banques employant la plateforme d’expliquer pourquoi telle ou telle décision est prise par les modèles IA de notation de crédit. «En intégrant l’IA et l’apprentissage machine à ses produits, Temenos accélérera le lancement de modèles explicables qui renforceront de nouveaux cas d’utilisation d’IA permettant de créer des expériences client optimales et d’automatiser les processus manuels avec des capacités d’auto-apprentissage», assure l’éditeur genevois.

Sortir les modèles d’IA de leur boîte noire

Le concept d’IA explicable prend de plus en plus d’importance, au point qu’il possède son propre acronyme: XAI (pour explainable IA). A l’instar de la plateforme mise au point par Logical Glue, la XAI est en mesure de renforcer la confiance du public et des utilisateurs en matière d'intelligence artificielle. La XAI «décrit un système dans lequel les actions d'une IA sont aisément compréhensibles pour les humains», selon la définition qu’en fait Intel. Ces systèmes permettent d’expliquer comment une IA en est venue à prendre la décision qu'elle a prise ou à choisir une solution donnée, explique Patrick Darmon, directeur d’Accenture Applied Intelligence pour la France et le Benelux. Qui ajoute que dans les secteurs régulés tels que les services financiers, cette faculté explicative constitue un défi à relever en matière de conformité. Il s’agit dès lors de mettre au point des systèmes de machine learning et de deep learning ne fonctionnant plus selon une approche de type boîte noire.

Du machine learning plus explicable pour l'armée américaine

«L'IA explicable s'avère également importante pour détecter les défauts et différences dans les données susceptibles d'engendrer des décisions incorrectes ou injustes», selon Intel. Pouvoir expliquer des décisions prises par une intelligence artificielle se profile par exemple comme un enjeu crucial dans le domaine militaire. La Darpa en a conscience. L’Agence US pour les projets de recherche avancée de défense a ainsi mis en place un programme visant à produire des modèles de machine learning plus explicables, tout en maintenant un haut niveau de performance d'apprentissage. L’objectif est aussi de permettre aux utilisateurs humains de comprendre, de faire confiance et de gérer efficacement la nouvelle génération de «partenaires artificiellement intelligents». La Darpa va dans cette optique créer des modèles puisant dans des techniques d'interface homme-machine de pointe capables de traduire les modèles d’IA en explications compréhensibles et utiles pour l'utilisateur final (voir la figure ci-dessous).

Tags
Webcode
DPF8_145734