Banques et IA

Gestion des risques de l'IA: la FINMA alerte les banques suisses

Face à l'adoption croissante de l'IA dans les banques suisses, la FINMA met en lumière les risques liés à son utilisation et appelle à une gouvernance robuste et une surveillance continue.

(Source: FINMA)
(Source: FINMA)

L’Autorité fédérale de surveillance des marchés financiers (FINMA) a récemment publié une communication détaillant ses attentes concernant la gestion des risques liés à l’utilisation croissante de l’intelligence artificielle dans les établissements financiers helvétiques. 

Aux yeux de la FINMA, l'IA présente des opportunités considérables pour les établissements financiers, notamment en termes d'efficacité opérationnelle, de personnalisation des services et de détection des fraudes. Le gendarme financier souligne toutefois que l’utilisation de ces technologies s'accompagne de risques souvent complexes à évaluer. Parmi les risques identifiés par la FINMA, sont notamment mentionnés le manque d’exactitude des réponses générées par les grands modèles de langage, les biais algorithmiques, la sécurité et la qualité des données, les cyberattaques, ainsi que la dépendance à des fournisseurs tiers. 

La FINMA indique avoir observé différents manquement en termes de gouvernance et de gestion des risques liés à l’IA au sein des banques suisses. Par exemple, le développement souvent décentralisé rend difficile la mise en œuvre de normes et l'attribution de responsabilités claires. L’absence de critères systématiques pour identifier les applications nécessitant une attention particulière est aussi pointée du doigt. 

Les banques sont ainsi invitées à renforcer la gouvernance visant à assurer une gestion adéquate de ces risques, avec des responsabilités bien définies et une documentation transparente. La FINMA recommande également une séparation stricte entre le développement des applications IA et leur vérification indépendante par du personnel qualifié en la matière. L'autorité préconise en outre des tests réguliers et des mécanismes de surveillance constante pour garantir la fiabilité des applications d'IA. Par ailleurs, une documentation claire et des critères précis pour évaluer l'explicabilité des modèles sont nécessaires. 
 

Tags
Webcode
WJJjMKG2