IA générative et sécurité IT

ChatGPT peut-il aider à lutter contre les cyberattaques?

Les chercheurs de Kaspersky ont testé l'aptitude de ChatGPT à identifier des liens URL dangereux employés dans les campagnes de phishing. Alors que le CEO d’une autre firme de cybersécurité a fait appel à l'incontournable chatbot pour duper des pirates informatiques.

(Source: rawpixel.com / kwanloy)
(Source: rawpixel.com / kwanloy)

Les modèles de machine learning spécialisés dans traitement du langage, dont l'incontournable ChatGPT, ont déjà montré leur efficacité pour mener une cyberattaque. Dans un autre contexte, l’IA générative s’est montrée utile à des hackers éthiques. Ces technologies ont-elles donc un réel potentiel en matière de cybersécurité? Deux expériences récentes abordent cette question. 

ChatGPT identifie-t-il les tentatives de phishing? Ou du moins les liens créés à des fins de hameçonnage? C'est la question que se sont posée les chercheurs de Kaspersky. Il ont mené cette étude pour en avoir le cœur net et s’assurer que, pour cette tâche, des outils de cybersécurité sophistiqués couplés à l'expertise humaine étaient encore plus efficaces qu'un golem.

Les chercheurs de la firme russe de cybersécurité ont soumis le modèle GPT-3.5-turbo (choisi pour son bon rapport coût-efficience) à des prompts demandant d’analyser plus de 5000 adresses URL. Ces dernières se composaient entre autres de noms de domaines associés à aucune entité fiable, ou encore de fautes d'orthographe (par exemple un «l» minuscule à la place d’u «i» dans le mot «Office»), soit des tactiques fréquentes chez les auteurs de phishing. Les chercheurs ont tout d'abord posé la question «S’agit-il de phishing?» Premier verdict: un taux de détection de 87,2% et 23,2% de faux positifs. Si la précision des signalements corrects est jugée élevée par les chercheurs, l'ampleur des détections erronées est quant à elle qualifiée d'inacceptable. 

Des jugement encore plus tranchés

Dans un second temps, les auteurs de l'étude ont voulu éviter de suggérer à l’IA générative l’idée d’un phishing et se sont donc contentés de demander: «Est-ce que c'est sans danger?». Deuxième verdict, auquel les chercheurs ne s'attendaient pas:  taux de détection de 93,8% et taux de faux positifs de 64,3%. L'invite la plus large a donc entraîné un jugement encore plus tranché quant à la nocivité des liens URL soumis. 

L'étude de Kaspersky a en outre permis de constater que le modèle GPT testé est assez efficace pour identifier la cible potentielle d'hameçonnage, c'est-à dire la société dont les employés sont visés par une campagne de phishing avec l'objectif d'obtenir leurs identifiants. «ChatGPT possède suffisamment de connaissances du monde réel pour connaître de nombreux services Internet et financiers et, avec seulement une petite étape de post-traitement (par exemple, en fusionnant "Apple" et "iCloud" ou en supprimant "LLC" et "Inc"), il réussit très bien à les extraire», lit-on dans le rapport de la firme russe. Qui voit dans ce dernier aspect un potentiel certain pour faire de ChatGPT et consorts des outils d’assistance utiles.

Duper les cyberpirates à l’aide de ChatGPT 

CEO de Lupovis, firme de cybersécurité spécialisée dans la tromperie cyber (cyber-deception), Xavier Bellekens a expliqué dans un billet de blog comment il a utilisé ChatGPT pour mettre en place un leurre («honeypot» ou «pot de miel» dans le jargon des experts) afin de tromper des cyberpirates. Il s'est confié sur sa démarche au site spécialisé VentureBeat. L'expert a ainsi demandé à ChatGPT de lui fournir les instructions et le code nécessaires à la mise au point d'une fausse imprimante, passant pour un vrai périphérique lorsqu'un réseau serait scanné par des individus malveillants. Le système devait en outre avoir une page de connexion accessible avec les identifiants «admin»  et «mot de passe». 

Le populaire chatbot a fourni au spécialiste un code fonctionnel et la fausse imprimante a rapidement attiré du monde, surtout des outils automatisés. «En l'espace de quelques minutes, j'ai commencé à recevoir des connexions entrantes et des personnes qui essayaient de forcer l'imprimante», explique Xavier Bellekens à VentureBeat. Il s'agissait de bots, pour la plupart des connexions. Mais dans un cas, l'expert a pu s'assurer qu'un humain avait bel et bien été dupé. Dans son billet de blog, le CEO de Lupovis affirme que «ChatGPT reste une ressource précieuse pour le prototypage rapide dans le domaine de la cybersécurité, car il permet aux non-développeurs d'explorer, de tester et de valider leurs idées».  
 

Webcode
vuv4AXfA