Dans la pharma et au-delà

Comment s’assurer du bon fonctionnement d’un logiciel doté de capacités d’apprentissage?

L'agence US du médicament FDA travaille sur une règlementation des dispositifs médicaux dotés d’intelligence artificielle et susceptibles d’apprendre et donc de se modifier une fois déployés. Le framework en cours d’élaboration pourrait inspirer les entreprises dans les exigences qu’elles posent à leurs propres fournisseurs de logiciels intégrant des capacités d’apprentissage.

Pour l'heure, la FDA approuve uniquement des systèmes dont les algorithmes sont verrouillés.
Pour l'heure, la FDA approuve uniquement des systèmes dont les algorithmes sont verrouillés.

Spécialisée dans le diagnostic médical, Optellum vient de voir son application Virtual Nodule Clinic approuvée par la FDA, l’agence américaine des produits alimentaires et médicamenteux. Destiné à assister les pneumologues et radiologues, le logiciel de la société britannique utilise l’intelligence artificielle pour calculer le risque de cancer d’un patient à partir d’un scanner de ses poumons. C’est la première solution exploitant l’IA dans le diagnostic du cancer du poumon à bénéficier du feu vert de la FDA. «Cette autorisation permettra aux praticiens de disposer de l'aide à la décision clinique dont ils ont besoin pour diagnostiquer et traiter le cancer du poumon au stade le plus précoce possible, en exploitant le potentiel de la collaboration entre les médecins et l'IA - au bénéfice des patients», commente Václav Potěšil, cofondateur et CEO d'Optellum.

Logiciels, algorithmes verrouillés, systèmes apprenant

L’utilisation de logiciels à des fins de diagnostic médical est chose courante et les agences de certification - y compris Swissmedic - ont adapté leurs procédures pour certifier des software en tenant compte de leur spécificité. Des règles déterminent notamment les cas où une mise à jour du logiciel nécessite une nouvelle procédure d’autorisation.

Avec l’émergence de logiciels médicaux exploitant l’IA, de nouveaux défis apparaissent pour lesquelles les agences devront développer des exigences particulières. La FDA a pour l’heure approuvé des systèmes intelligents dont les algorithmes sont verrouillés, c’est-à-dire qu’ils ne changent pas avec l’utilisation et qu’une même entrée livre à chaque fois le même résultat (static look-up tables, decision trees, complex classifiers), à l'instar de la solution d'Optellum.

Les choses sont cependant plus complexes lorsque les dispositifs intelligents ont la capacité d’apprendre lors de leur utilisation dans le monde réel et de se modifier après avoir été déployés. «La nature hautement itérative, autonome et adaptative de ces outils nécessite une nouvelle approche réglementaire du cycle de vie du produit permettant à ces dispositifs de s'améliorer continuellement tout en fournissant des garanties efficaces», explique l’agence américaine dans un document de travail.

Quelles exigences pour les systèmes apprenant?

Dans son projet de règlementation pour les dispositifs médicaux dotés d’intelligence artificielle apprenant, la FDA explore plusieurs types d’exigences en discussion avec les fabricants. Ces travaux pourraient s’appliquer dans d’autres domaines et notamment aux départements IT et achats lorsqu’ils formulent des exigences à leurs fournisseurs de logiciels dotés d’IA.

Une première mesure envisagée par la FDA consiste à demander aux fabricants de soumettre un plan des modifications prévues et de la méthodologie employée pour les mettre en œuvre de manière contrôlée. Les fournisseurs devraient en outre être transparents et faire le suivi de la performance de leur système dans le monde réel.

Une deuxième mesure consiste à exiger des fabricants d’adopter des systèmes qualité et des bonnes pratiques en matière de machine learning. Les exigences concerneraient typiquement la pertinence des données disponibles par rapport au problème clinique; la cohérence des données et le fait qu’elles autorisent une généralisation; la séparation entre les données d’entraînement, de réglage et de test; ainsi que la transparence à la fois des résultats et de l’algorithme.

Enfin, un troisième volet d’exigences concerne l’information donnée cette fois aux utilisateurs. «Promouvoir la transparence est un aspect central de l’approche orientée sur les patients et nous estimons qu’elle est particulièrement importante pour les dispositifs IA médicaux, qui sont susceptibles d’apprendre et de changer avec le temps et qui peuvent intégrer des algorithmes ayant une certaine opacité», explique la FDA. Les fabricants pourraient avoir à décrire les données ayant servi à entraîner l’algorithme, la pertinence des inputs, la logique employée (si possible), le rôle attendu des outputs et les preuves de la performance du dispositif.

Tags
Webcode
DPF8_211814