IA agentique

Stéphane Fallet, AI Swiss: «Un agent IA doit impérativement disposer d’un accès durable aux données»

Président de l’association AI Swiss et fondateur de l’entreprise Rapid Rise, Stéphane Fallet décrypte dans cet entretien ce qui distingue les agents IA, les défis qu’ils soulèvent, les cas d’usage déjà crédibles et les conditions techniques indispensables à leur autonomie.

Stéphane Fallet, président de l’association AI Swiss et fondateur de ­l’entreprise Rapid Rise. (Source: DR)
Stéphane Fallet, président de l’association AI Swiss et fondateur de ­l’entreprise Rapid Rise. (Source: DR)

Qu’est-ce qui distingue, selon vous, une IA agentique d’un copilote ou d’un simple assistant conversationnel?

Ce qui caractérise une IA agentique, c’est sa capacité à structurer de manière autonome un raisonnement, à orchestrer plusieurs processus cognitifs en parallèle, un peu de manière similaire au processus de réflexion des humains. On ne parle plus d’une IA qui réagit à une simple commande, mais d’un système qui peut challenger sa propre réponse, souvent au travers d’architectures multi-agents. C’est aussi une IA qui peut interagir avec des outils, que ce soit dans l’univers numérique ou dans le monde physique.

Vous évoquez une capacité à interagir avec le monde réel. Est-ce que cela reste du domaine de la recherche ou est-ce déjà opérationnel?

Il y a déjà des prototypes. À l’EPFL, par exemple, nous avons présenté un système avec un chien robot équipé de caméras, connecté à un aveugle via une oreillette. L’IA embarquée traduit ce qu’elle voit – comme un feu rouge – en informations vocales. Ce type d’agent comprend son environnement réel et le communique en temps réel.

Certains analystes, par exemple chez Gartner, ont récemment dénoncé le phénomène qu’ils nomment «agent washing». Qu’en pensez-vous?

Beaucoup de solutions qui se prétendent «agentiques» sont en effet une forme modernisée de RPA (Robotic Process Automation). Sur le terrain, j’ai observé que dans huit cas sur dix, les problématiques rencontrées par les entreprises pourraient être résolues par des solutions d’automatisation plus classiques, comme la RPA ou des scripts bien structurés, plutôt que par des solutions IA plus poussées. Beaucoup d’organisations ne sont pas encore à un stade de maturité numérique où l’IA serait réellement pertinente. Cependant, il est clair que la vaste majorité des entreprises adoptent désormais des solutions d’IA «bureautique», qui sont davantage des outils d’IA que de réels systèmes d’IA.

Les agents déployés dans des environnements comme Salesforce ou SAP relèvent-ils selon vous de l’IA agentique?

Oui dans une certaine mesure. Cela dit, ces agents opèrent dans des environnements riches en données, ce qui les rend efficaces, mais ils sont strictement encadrés. Ils ne remplacent pas encore un humain, car ils ne peuvent pas adapter leur comportement à des situations nouvelles. On reste dans le domaine d’outils bureautiques intelligents, pas encore dans de véritables agents autonomes.

Quels sont les cas d’usage les plus crédibles aujourd’hui pour l’IA agentique?

Un exemple parlant, ce sont les moteurs de recherche et navigateur web augmentés. Ces outils montrent comment une IA peut suivre plusieurs étapes de recherche, les documenter et produire une réponse élaborée. Dans le support client, aussi, on voit apparaître des agents capables de traiter des demandes en suivant des procédures complexes. Contrairement à la RPA, qui nécessite une programmation rigide, ces agents peuvent adapter leur parcours. C’est particulièrement efficace dans les environnements bien structurés.

Est-ce que ces agents ont vocation à s’étendre à d’autres domaines métiers

Oui bien-sûr. Dans un domaine que je connais très bien, car nous le pratiquons tous les jours avec Rapid Rise, à savoir le marketing automatisé, nous mettons désormais en place pour nos clients des agents IA capables de gérer des éléments cruciaux du marketing, comme le SEO, pour citer un bon exemple. En effet, c’est un domaine où il fallait auparavant des experts qui surveillaient les mots-clés et les résultats de recherche, puis faisaient des ajustements manuels. Désormais, nos agents le font en continu et ajustent automatiquement les éléments directement dans les sites web des clients. Un gain d’efficacité et de performance énorme, et en plus, moins coûteux qu’avec un humain. Ce sont donc des assistants spécialisés, capables de travailler avec un certain niveau d’autonomie, sans supervision constante.

Quels obstacles techniques freinent aujourd’hui le ­déploiement à grande échelle d’agents IA véritablement autonomes?

Pour qu’un agent IA puisse réellement créer de la valeur, il doit impérativement disposer d’un accès durable aux données pertinentes et de véritables capacités d’action. Sans cela, il ne peut ni fonctionner efficacement ni maintenir la cohérence de ses décisions. La gestion de la mémoire contextuelle devient alors un enjeu central: un agent doit pouvoir mémoriser ses échanges sur une période prolongée, condition indispensable à toute forme d’autonomie. Or, cela peut entrer en conflit direct avec les exigences actuelles en matière de sécurité des données, qui reposent sur le principe du «need-to-know»: chaque entité n’a accès qu’aux informations strictement nécessaires à sa tâche. Par défaut, on limite donc fortement l’accès aux données, là où un agent IA aurait besoin d’un accès large et continu pour fonctionner pleinement. À cela s’ajoutent d’autres défis techniques, comme l’orchestration de systèmes multi-agents. Ces enjeux deviennent d’autant plus complexes lorsque l’agent évolue dans un environnement distribué ou interconnecté. L’interopérabilité constitue également un point critique. Des protocoles comme MCP commencent à offrir des solutions prometteuses dans ce domaine.

Quelles sont les principales difficultés rencontrées par les départements IT lorsqu’on leur demande de mettre en œuvre des projets d’IA agentique

Aujourd’hui, le top management veut de l’IA, mais ce sont les équipes IT qui doivent l’implémenter. Ces dernières sont déjà sous pression, souvent peu familiarisées avec l’IA générative et, surtout, confrontées à des enjeux de sécurité accrus. L’IA impose une ouverture des systèmes, alors qu’on leur a appris à cloisonner. Cela crée nécessairement des tensions internes.

Est-ce qu’on va vraiment passer d’un monde de copilotes à un monde d’agents IA?

Certaines grandes entreprises, comme la plus grande banque du pays, investissent massivement dans l’IA depuis plusieurs années. Elles ont la culture, les moyens et les compétences pour évoluer vers un modèle agentique. D’autres organisations, plus petites ou moins avancées, seront limitées. On verra donc d’un côté des structures AI-first et de l’autre des entreprises plus traditionnelles. Il y aura aussi de nouveaux entrants, des start-up qui auront bâti leur modèle directement sur l’IA agentique. Je peux en témoigner: les systèmes d’IA que nous déployons aujourd’hui auprès d’indépendants ou de très petites entreprises accomplissent, de manière autonome, des tâches qui auraient autrefois nécessité une véritable armée d’employés, et donc rendu leur initiative financièrement impossible. Désormais, ces structures y parviennent, ce qui les rend particulièrement dynamiques et performantes malgré leur petite taille.

Pensez-vous que certains métiers intellectuels sont ­menacés par cette évolution?

À terme, certaines fonctions seront automatisées car l’IA pourra faire mieux, plus vite et à moindre coût. Mais cela dépendra de la capacité des sociétés à faire évoluer leurs cadres réglementaires. Prenons les notaires: leur rôle pourrait être remplacé techniquement par des solutions IA et à base de blockchain ou de smart contracts. Il ne s’agit plus d’un obstacle technologique, mais d’un verrou social et institutionnel.

L’association que vous présidez veut offrir des repères, notamment sur le plan éducatif, dans un contexte où l’IA progresse à grands pas. Comment cela se traduit-il concrètement et pourriez-vous adapter votre démarche compte tenu de l’émergence de l’IA agentique?

Aujourd’hui, l’IA progresse à une vitesse qui dépasse la capacité d’adaptation humaine et celle des décideurs politiques, qui manquent de vision et de stratégie. Avec l'association AI Swiss, nous avons voulu combler ce vide, notamment dans l’éducation, en proposant des approches concrètes pour apprendre aux enfants à interagir avec l’IA de manière critique et créative. Par exemple, grâce à notre chatbot Rodin, enseignants et parents peuvent trouver des scénarios de jeux de rôle sans écran pour familiariser les enfants à l’IA et à ses limites. Cette logique vaut aussi pour l’IA agentique: l’enjeu est de rendre visibles les limites de ces systèmes. Une IA vraiment utile devrait pouvoir dire: «ici je ne suis pas sûr», «là je n’avais pas toutes les données», ou encore interrompre son action pour demander une validation humaine. C’est cette transparence qui ouvre la voie à une utilisation plus responsable et qui permettra une véritable collaboration homme-machine, ou «co-pensée» comme nous l’appelons chez AI Swiss.

Webcode
urVftivR