Manipulation et espionnage

Trend Micro alerte sur les usages malveillants des agents IA autonomes

par Chiara Binder (traduction/adaptation ICTjournal)

Contrairement aux chatbots d’IA réactifs, les agents d’IA lancent eux-mêmes des tâches et prennent des décisions de manière autonome. Ces capacités créent des risques de sécurité considérables, prévient Trend Micro, car les agents d’IA peuvent être détournés pour mener des attaques automatisées, manipuler des systèmes ou orchestrer des campagnes massives d’espionnage de données.

(Source: peshkova / stock.adobe.com)
(Source: peshkova / stock.adobe.com)

Les agents IA disposent de fonctions avancées qui le distinguent fondamentalement des assistants traditionnels. Mais ces nouvelles capacités signifient également une plus grande surface d’attaque et donc davantage de risques de sécurité. Le potentiel d’abus va de la cybercriminalité automatisée aux attaques ciblées contre des infrastructures critiques, jusqu’à l’espionnage massif de données, prévient dans un rapport le fournisseur japonais de solutions de cybersécurité Trend Micro.

Contrairement aux chatbots classiques, les agents IA peuvent exécuter des tâches complexes en plusieurs étapes et, pour ce faire, accéder à des systèmes tiers. Ils sont capables d’appeler des API, de lancer des outils et d’automatiser entièrement des processus. Des attaquants pourraient exploiter ces facultés pour établir des accès persistants dans les réseaux d’entreprise. Les agents IA seraient en outre plus vulnérables aux violations de la protection des données: leur utilisation comporte un risque d’actions involontaires et de fuites d’informations.

La combinaison de l’IA générative, de la connexion aux API et de la capacité d’exécuter des actions de manière autonome crée, selon Trend Micro, un potentiel d’attaque bien supérieur aux méthodes classiques d’ingénierie sociale ou de phishing. Un agent IA compromis serait en mesure de réaliser de bout en bout une chaîne d’attaque: de l’identification d’une faille à l’accès initial, jusqu’à l’ancrage durable dans le système cible. Un tel scénario devient possible par sa capacité à piloter des outils externes, à exploiter des interfaces et à planifier comme à exécuter des processus de manière indépendante. Un tel agent pourrait, par exemple, lancer des scans de vulnérabilités, extraire des mots de passe, exfiltrer des documents internes ou manipuler des services cloud.

Ces actions pourraient être automatisées et menées à une vitesse largement supérieure à celle des attaquants humains. Plus critique encore : un assaillant n’aurait besoin de manipuler l’agent qu’une seule fois pour ensuite exfiltrer des données ou mener des sabotages pendant des semaines, voire des mois, sans être détecté.

Trend Micro recommande de mettre en place des restrictions claires d’accès pour les agents IA, de surveiller en permanence toutes leurs activités et de simuler d’éventuels scénarios d’attaque afin d’identifier les failles avant que les cybercriminels ne puissent les exploiter.

Webcode
Z83n5p6h