Intelligence artificielle

Un nouveau défi menace tous les DSI: expliquer l’IA

Selon PWC, l’intelligence artificielle n’aura pas l’essor qu’on lui promet sans avoir gagné la confiance des utilisateurs finaux. Pour cela, ses applications ne devront pas être des boîtes noires mais des outils transparents sur les datas qu’ils utilisent et ce qu’ils en font. Un sacré challenge pour les responsables informatiques sur qui retombera la responsabilité de cette vulgarisation.

(Source: Tim Gouw on Unsplash)
(Source: Tim Gouw on Unsplash)

Les départements IT vont devoir faire preuve de pédagogie. C’est en tout cas l’une des huit certitudes énoncées par PWC dans son document intitulé «2018 AI predictions». Le cabinet de conseil affirme ainsi que l’essor (si attendu) de l’intelligence artificielle passera par la confiance et l’adhésion des utilisateurs finaux. Or, pour cela, les utilisateurs devront comprendre comment et pourquoi une intelligence artificielle prend telle ou telle décision. «Que se passe-t-il lorsque des logiciels refusent une demande de prêt hypothécaire pour des raisons que la banque ne peut expliquer? Que se passe-t-il si une intelligence artificielle signale une certaine catégorie de personnes à la sécurité de l'aéroport sans justification apparente?», interroge le géant britannique selon qui l’IA ne peut fonctionner sur des boîtes noires qu’au risque de rencontrer une vague de méfiance qui limitera son utilisation.

Le coût de la transparence

«Nous nous attendons à ce que les organisations soient confrontées à une pression croissante de la part des utilisateurs finaux et des régulateurs pour déployer des IA explicables et transparentes», poursuivent les auteurs de l’analyse. Mais les entreprises derrière les algorithmes apprenants seront-elles prêtes à révéler leurs secrets de fabrication pour gagner la confiance du plus grand nombre? Et quel serait le coût des efforts de vulgarisation nécessaires à rendre cette technologie intelligible au plus profane? Voilà qui pourrait faire grimper le prix du ticket d’entrée dans l’ère du machine learning et de l’apprentissage profond.

Dans un billet publié le 5 juillet, le consultant PWC Michael Baccala voyait ce caillou dans la chaussure de l’IA une opportunité pour les DSI. Selon lui, l’importance que prend la technologie dans les entreprises contraint les conseils d’administration à intégrer ces questions à leurs discussions… et donc celui qui en est responsable. Mais pour ce spécialiste de la GRC (gouvernance, gestion des risques et conformité), si «il incombe aux CIO de donner vie à ces plans», ils ne pourront gérer seuls la problématique de la transparence. Le consultant conseille ainsi aux responsables informatiques de se rapprocher du DAF et du directeur de l’audit interne de leur entreprise afin de définir des «cadres de risque» autour de l’utilisation de systèmes intelligents nourris de données concernant l’entreprise, ses clients ou ses employés.

Tags
Webcode
DPF8_100320