RGPD pour l'IA

L’intelligence artificielle aura aussi droit à sa règlementation européenne

La Commission européenne a publié un papier dans lequel elle présente sa stratégie en matière d’IA. Pour refaire son retard, l’UE mise sur l’innovation et l’adoption à large échelle des systèmes intelligents et un cadre réglementaire ciblant les applications «à haut risque», avec un impact évident sur les organisations suisses.

Ursula von der Leyen, présidente de la CE, lors de la présentation de l'agenda digital européen le 19 février 2020.
Ursula von der Leyen, présidente de la CE, lors de la présentation de l'agenda digital européen le 19 février 2020.

L’Union européenne ne veut plus jouer les troisièmes couteaux dans l’intelligence artificielle. Dans un livre blanc publié il y a quelques jours, l’institution dessine la voie singulière qu’elle souhaite tracer tant pour se positionner face aux leaders du domaine, que sont la Chine et les USA, que pour éviter que chaque pays-membre n’adopte ses propres orientations et règlementations en la matière. Développée sur un trentaine de pages, la stratégie européenne s’articule autour de deux dimensions. Le premier volet concerne l’investissement et l’encouragement à l’innovation et à l’adoption de l’IA en particulier dans les filières industrielles où l’Europe est bien positionnée (robotique, automobile, énergie). Via toute une série d’actions, l’UE espère attirer 20 milliards d’investissement par an dans le domaine.

Règlementer les applications à haut risque

L’autre volet de la stratégie européenne concerne la confiance dans l’IA. S’appuyant sur ce qu’elle a fait en matière de données personnelles avec le RGPD, l’UE compte encadrer l’application de l’IA dans certains secteurs (santé, transport, certaines parties du secteur public) ou dans des domaines à haut risque, comme les procédures de recrutement ou l’identification biométrique à distance.

Les entreprises développant ou employant de l’IA dans ces applications seraient soumises à diverses exigences portant sur les données d’entraînement (taille, représentativité, vie privée), la documentation (données, méthodes, tests), l’information fournie aux utilisateurs (avertissement, limites), la robustesse (précision, reproductibilité, résistance), et le contrôle humain (validation des décisions automatisées, intervention humaine ou désactivation dans certaines conditions).

Contrôles de conformité

Pour s’assurer du respect de toutes ces exigences, l’UE compte soumettre les applications à haut risque à des contrôles obligatoires, intervenant en amont ou tout au long de la durée de vie de l’IA pour les systèmes apprenants. Des organismes de contrôle désignés devraient notamment pouvoir vérifier les données d’entraînement, les techniques de programmation et les méthodes et procédures utilisées.

En outre les organisations qui développent ou appliquent des solutions d’IA dans des usages à moindre risque pourraient facultativement les faire valider et obtenir un label.

Et en Suisse?

L’arrivée probable d’une règlementation européenne sur les applications de l’intelligence artificielle concernera naturellement les entreprises suisses. En premier lieu, les fabricants de machines et autres éditeurs de logiciels pourvus de capacités d’IA devront les faire valider pour les exporter dans l’UE.

De plus, et comme avec le RGPD, une législation semblable pourrait voir le jour en Suisse. Dans un papier blanc publié en octobre 2019, l’Académie suisse des sciences recommandait d’ailleurs l’établissement d’ «une institution au niveau gouvernemental responsable de la vérification des exigences des systèmes d’IA».

Pour en savoir plus:

Notre dossier complet sur l’éthique de l’intelligence artificielle

Le papier blanc de l’UE

Le papier blanc de l’Académie suisse des sciences

Webcode
DPF8_172220