Au Campus Unlimitrust, le Circle of AI Safety pose les bases d’une IA de confiance
À Prilly, la start-up Surelio.ai a réuni une soixantaine de professionnels du numérique et de la cybersécurité pour la première édition du Circle of AI Safety, consacrée à la sécurité et à la gouvernance de l’IA.
Le 30 octobre, le Campus Unlimitrust à Prilly a accueilli la première édition du Circle of AI Safety, un événement organisé par la start-up Surelio.ai et consacré à la sécurité et à la gouvernance de l’intelligence artificielle. Près de soixante participants du numérique, de la cybersécurité et du monde académique se sont réunis autour d’un même enjeu: renforcer la confiance dans les systèmes d’IA.
Des vulnérabilités encore mal comprises
Premier intervenant, le Dr Andrei Kucharavy, professeur assistant à la HES-SO Valais-Wallis et cofondateur du Gen Learning Center, a ouvert la soirée sur un constat sans détour: la sécurité de l’IA ne se résume pas à la cybersécurité classique. Sécuriser un modèle, explique-t-il, c’est aussi comprendre comment son fonctionnement interne peut être manipulé. Il illustre ces risques par plusieurs incidents récents — du chatbot Salesforce à l’origine de «la plus grande faille de 2025» aux fuites via Microsoft Copilot ou encore aux vulnérabilités de Google Calendar et des OpenAI Chat logs.
Parmi les failles les plus courantes des LLM, le chercheur mentionne les prompt injections, l’exfiltration de données et l’empoisonnement des jeux d’entraînement. Il alerte aussi sur les hallucinations de code: «35 à 40% des paquets générés par des modèles de programmation sont inventés», tandis que certaines failles connues depuis 2021 «restent présentes dans les modèles publiés en 2025». Ces vulnérabilités, souligne-t-il, ne sont plus théoriques: elles se manifestent déjà dans les systèmes déployés en production. Pour y faire face, il préconise une approche pragmatique: le threat modeling, qui consiste à cartographier les menaces propres à chaque application. «Le hacking, c’est exploiter l’écart entre ce qu’un système est censé faire et ce qu’il peut faire», résume-t-il.
Au-delà des aspects techniques, le chercheur alerte sur un risque plus humain: la confiance excessive accordée aux systèmes automatisés. «Alors la machine se montre fiable la plupart du temps, l’humain finit par lui faire confiance», prévient-il.
L’IA, nouveau terrain d’attaque pour les hackers
Sur scène, Terry Vogelsang, responsable de la sécurité offensive chez Kudelski Security, a ramené la discussion sur le terrain. Selon lui, chaque interaction avec un modèle d’IA constitue un point d’entrée potentiel: une requête bien formulée peut suffire à détourner son fonctionnement ou à révéler des données internes. Il évoque des cas concrets: bots manipulés par prompt injection, intégrations mal cloisonnées ou code généré automatiquement puis déployé sans contrôle.
S’appuyant sur une étude de Veracode, il souligne que près de 45% du code produit par des modèles d’IA contient des failles de sécurité. «On voit aujourd’hui des logiciels générés par IA arriver en production avec des erreurs qu’un développeur junior éviterait», observe-t-il.
Pour lui, la réponse ne réside pas dans de nouveaux outils, mais dans un retour aux fondamentaux: segmentation des réseaux, contrôle des accès et supervision continue. «L’IA doit être traitée comme un composant critique du système d’information, pas comme un gadget d’innovation», rappelle-t-il.
La gouvernance, pilier de la confiance
Dernier intervenant, Gilles Burnier, expert en innovation stratégique chez Groupe Mutuel, a rappelé que la réussite d’un projet d’IA repose avant tout sur la gouvernance. S’appuyant sur une étude du MIT, il note que 95% des projets échouent faute d’alignement entre stratégie, valeur ajoutée et gestion des risques. «Trop souvent, les entreprises se lancent dans l’IA parce que leurs concurrents le font, sans savoir quel problème elles veulent vraiment résoudre», observe-t-il.
L’orateur a évoqué les paradoxes d’une technologie à la fois prometteuse et imprévisible. «Les modèles sont puissants, mais aussi opaques et peu fiables: A plus B ne donne pas toujours C», a-t-il illustré, pointant les risques de dérives ou de non-conformité.
Pour y répondre, le Groupe Mutuel a instauré un cadre de supervision hybride, combinant validation humaine et contrôle automatisé. Avant diffusion, les réponses générées par son chatbot sont vérifiées par un second modèle selon le principe du LLM as a judge. «Il faut accepter d’innover, mais dans un cadre maîtrisé et transparent», souligne-t-il. Au-delà de la technique, il plaide pour une approche collective: avancer ensemble et partager les apprentissages afin de transformer les projets pilotes en initiatives durables.
Surelio.ai veut structurer la sécurité de l’IA
En clôture, les cofondateurs ont présenté le lancement de cette jeune entreprise lausannoise, née de la collaboration entre experts en cybersécurité, auditeurs IT et spécialistes de l’intelligence artificielle. Positionnée comme un tiers de confiance, Surelio.ai accompagne les organisations dans la sécurisation et l’audit de leurs systèmes d’IA. Elle mène des tests de robustesse à grande échelle et propose des formations en AI Safety destinées aux équipes techniques et aux directions, afin d’instaurer une culture commune de la prévention.
«Il n’existait jusqu’ici aucun événement romand spécifiquement dédié à la Generative AI Safety», rappelle Gaetan Stein, cofondateur de Surelio.ai. Avec ce nouveau format, l’entreprise entend fédérer chercheurs, experts techniques et décideurs autour des enjeux de sécurité des systèmes d’IA. Une seconde édition du Circle of AI Safety est déjà prévue en 2026.