Algo vs. algo

Des algorithmes peuvent hacker les chatbots pour les rendre léthargiques

Des chercheurs ont découvert comment hacker des réseaux neuronaux en les inondant d’informations confuses créées à l’aide d’algorithmes perturbatreurs. Face à ce flot d'incohérences, le fonctionnement des caméras intelligentes et des chatbots ralentit de façon drastique.

(Source: PIOTR BENE on Unsplash)
(Source: PIOTR BENE on Unsplash)

Les systèmes d’intelligence artificielle peuvent dans certains cas être trompés par de simples bricolages. Par exemple, en appliquant du ruban adhésif sur un panneau de limitation de vitesse, la reconnaissance visuelle d’une voiture autonome peut perdre le nord... Mais même sans être ainsi poussés à l’erreur, chatbots ou caméras intelligentes pourraient se mettre à dysfonctionner en étant plongés dans une forme de léthargie par des cyberpirates. Des chercheurs ont en effet découvert comment détériorer la disponibilité d’un système de machine learning en l’inondant d’inputs manipulés à l’aide d’algorithmes. Les conséquences pourraient être dramatiques, notamment en ciblant des systèmes de reconnaissance d’image: le moindre délai de réaction d’une voiture autonome pouvant mener à l’accident.

Lettres inversées et pixels chamboulés

L’équipe de chercheurs est parvenue à drastiquement augmenter le temps de réponse de réseaux neuronaux profonds en leur envoyant des informations générant de la confusion. Les stimuli en question ont été créés à l’aide de deux types d’algorithmes (génétique et BFGS à mémoire limitée), lesquels permettent de transformer de manière aléatoire des mots en inversant les lettres, ou de chambouler les pixels d’une image. Traiter ces informations pour les classer comme non pertinentes demande beaucoup d'énergie et freine drastiquement la performance de ces systèmes.

Quand un chatbot devient 100 fois plus lent

Le résultat le plus spectaculaire obtenu dans le cadre de cette recherche concerne des modèles de traitement du langage naturel qui, face à ce flot d'incohérences, ont fonctionné plus de 100 fois moins vite. «Nos attaques sont efficaces contre les réseaux neuronaux profonds dans un éventail de modèles de menace qui saisissent de manière réaliste les déploiements actuels de machine learning, aussi bien en mode as-as-Service que dans des dispositifs Edge», soulignent les chercheurs. Avant d'appeler les concepteurs de ces modèles à prévoir les pires des scénarios et leur impact sur la latence et la consommation d'énergie.

Webcode
DPF8_182141