Agents IA

Essor de l’IA agentique: entre avancées concrètes et défis à surmonter

Entre discours marketing et avancées tangibles, l’IA agentique s’impose comme un nouveau chapitre de l’intelligence artificielle. Mais derrière les promesses d’autonomie et de productivité, les entreprises doivent encore composer avec des limites et des cas d’usage qui n’ont pas encore fait leurs preuves à grande échelle.

(Source: Antony Weerut / Adobestock.com)
(Source: Antony Weerut / Adobestock.com)

L’émergence des modèles de langage a profondément élargi le champ des applications de l’intelligence artificielle dans les environnements professionnels. Les interfaces conversationnelles grand public ont familiarisé les utilisateurs avec les systèmes capables de générer du texte, du code ou des images en quelques secondes. Mais l’IA entre déjà dans une nouvelle phase, celle des agents IA, ou IA agentique, qui s'est placée au sommet du Hype Cycle 2025

Ces derniers mois, l’IA agentique est devenue omniprésente dans les communications des fournisseurs IT, les rapports de cabinets de conseil et les articles des médias spécialisés, ICTjournal ne faisant pas exception. Le présent article s’inscrit d’ailleurs dans le prolongement de nos recherches menées pour la conférence donnée lors des récents Swiss IT Forum(s).

Un terme à clarifier

Il apparaît que, derrière l’usage généralisé du terme, la compréhension précise de ce que recouvre l’IA agentique varie passablement selon les interlocuteurs. Pour distinguer cette approche des autres formes d’automatisation ou d’IA, il est essentiel de poser une définition précise. L’un des travaux de référence sur le sujet est l’ouvrage collectif Agentic Artificial Intelligence: Harnessing AI Agents to Reinvent Business, Work and Life. Les auteurs y définissent un agent IA comme un système qui utilise l’intelligence artificielle et des outils pour accomplir des actions de manière autonome, dans le but d’atteindre un objectif.

Autrement dit, là où l’IA générative se limite à produire du contenu – texte, image ou code – sur demande, l’agent IA agit dans un environnement opérationnel. Ce basculement ne s’explique pas uniquement par la puissance croissante des modèles de langage, mais par l’émergence récente d’une nouvelle génération d’architectures, parfois désignées sous le nom de Large Reasoning Models (LRM). Contrairement aux modèles purement génératifs, ces systèmes sont conçus pour structurer des séquences d’actions, planifier des étapes et prendre des décisions de manière autonome.

Un agent IA repose ainsi sur une boucle fonctionnelle complète. Il perçoit d’abord son environnement, en analysant des données issues de sources variées – e-mails, bases documentaires, outils métiers, voire capteurs. Il planifie ensuite une série d’actions à mener pour atteindre un objectif donné. Il agit concrètement, en interagissant avec des logiciels ou des interfaces, sans intervention humaine à chaque étape. Enfin, il serait, en théorie, capable d’apprendre de ses résultats, d’ajuster ses choix et d’affiner sa stratégie.

Différents niveaux d'autonomie

L’autonomie des systèmes IA doit être considérée comme un continuum, que l’on peut schématiser en cinq niveaux distincts:

  • Niveau 1: automatisation rigide. L’équivalent des scripts classiques de RPA (Robotic Process Automation), sans aucune prise de décision dynamique.
  • Niveau 2: agents enrichis de règles ou d’algorithmes de machine learning. Ils peuvent adapter leur comportement à certaines conditions, mais dans un cadre étroit.
  • Niveau 3: agents cognitifs, capables de raisonner sur un objectif, de planifier des tâches simples et de les exécuter. Ce niveau représente aujourd’hui la majorité des cas d’usage opérationnels.
  • Niveau 4: agents adaptatifs, capables de gérer des imprévus, de collaborer avec d’autres agents, et de modifier leur stratégie en fonction du contexte.
  • Niveau 5: agents pleinement autonomes, pouvant atteindre des objectifs complexes sans supervision humaine. Ce niveau reste aujourd’hui un horizon théorique.

Aujourd’hui, la plupart des projets en production relèvent encore du niveau 3, tandis que les cas de niveau 4 restent rares, souvent limités à des environnements de test très encadrés.

Trois grandes familles d’agents

Toujours selon les auteurs du livre déjà cité, le paysage actuel de l’IA agentique peut être structuré en trois grandes catégories, selon la nature des agents et le mode de développement choisi.

Les agents généralistes constituent aujourd’hui l’un des terrains d’expérimentation les plus actifs de l’IA agentique. Contrairement aux agents conçus pour un domaine métier spécifique, ces systèmes visent à couvrir un large éventail de tâches transverses, souvent liées à la bureautique, à la recherche d’information ou à l’automatisation de processus numériques courants.

En juillet dernier, OpenAI a franchi une étape avec l’introduction du mode Agent dans ChatGPT. Cette fonctionnalité permet au modèle non seulement de générer du contenu, mais également d’exécuter des actions concrètes dans un environnement virtuel. L’agent est capable de naviguer sur le web, d’interagir avec des documents, puis d’assembler des livrables prêts à l’emploi, comme des présentations ou des tableaux Excel. On passe ainsi d’une logique d’assistance conversationnelle à un système capable de coordonner un enchaînement d’actions, de manière autonome.

Une logique comparable a été suivie par Anthropic avec son projet Computer Use, qui confère à un modèle de langage la capacité d’interagir avec un poste de travail, en manipulant une interface logicielle comme le ferait un utilisateur humain. Si cette approche peut rappeler la RPA (Robotic Process Automation), il existe une distinction: la RPA repose sur des scripts préprogrammés, exécutés à l’identique tant que l’interface ne change pas. En revanche, un agent basé sur Computer Use choisit ses actions de façon dynamique, en fonction du contexte. Il est censé s’adapter à des interfaces variables et poursuivre sa tâche, là où une automatisation classique échouerait au moindre changement.

Du côté de Google, le projet Mariner, intégré à Gemini, permet de développer un agent multitâche capable d’orchestrer des actions à travers différents services de l’écosystème Google: consultation d’e-mails, croisement de documents, automatisation de tâches de support ou de reporting.

Enfin, Microsoft a récemment annoncé que Copilot pour Microsoft 365 intègre désormais un mode agent. Au-delà des requêtes ponctuelles, Copilot est conçu pour exécuter des séquences d’actions complètes, notamment dans Outlook, Teams ou Excel.

Les agents spécialisés, quant à eux, sont conçus pour des cas d’usage métiers précis. Salesforce propose ainsi Agentforce, un ensemble d’agents intégrés dans son CRM, capables d’automatiser des interactions clients ou de piloter des campagnes marketing. Dans la santé, Hippocratic AI développe des agents conversationnels spécialisés pour des tâches cliniques. D’autres plateformes, comme agent.ai, proposent des marketplaces d’agents verticaux, adaptés à des besoins sectoriels: logistique, finance, veille concurrentielle, etc.

Enfin, les plateformes de développement offrent aux entreprises la possibilité de concevoir leurs propres agents. Certaines solutions, comme UiPath ou ServiceNow, adoptent une approche no-code, accessible aux équipes métiers. D’autres, comme Crew.ai, proposent une orchestration semi-configurable. Et à l’extrémité du spectre, on trouve des frameworks avancés comme LangChain ou AutoGen, qui permettent aux développeurs de construire des architectures d’agents personnalisées, avec un haut degré de flexibilité, mais aussi une complexité accrue.

(Source: Illustration générée par IA (ChatGPT / DALL·E))

 

Certains cas d’usage prometteurs

Un nombre croissant d’entreprises testent aujourd’hui l’IA agentique et partagent les premiers enseignements de ces expérimentations.

Dans le secteur pharmaceutique, Johnson & Johnson utilise des agents IA pour automatiser l’analyse de littérature scientifique. Ce processus, qui nécessitait auparavant plusieurs mois, peut être réduit à quelques semaines. Les agents lisent des milliers d’articles, extraient les informations pertinentes, les comparent et proposent des pistes aux chercheurs humains.

Chez Moody’s, l’approche est particulièrement innovante. L’entreprise a conçu un ensemble d’agents, chacun représentant une vision économique spécifique (optimiste, prudente, spécialisée sur les marchés émergents). Ces agents débattent, confrontent leurs arguments et produisent collectivement un scénario macroéconomique. Le gain de temps est significatif et l’approche permettrait aussi une traçabilité des raisonnements formulés.

Dans la grande distribution, Leroy Merlin a déployé des agents pour assister les vendeurs en magasin. Ces agents peuvent proposer des promotions en temps réel, en fonction des stocks, ou recommander des produits.

Chez Audi, des agents IA spécialisés collaborent pour automatiser le développement logiciel interne. Chaque agent prend en charge une étape: analyse des besoins, conception, génération de code, tests. Cette approche multi-agents permettrait de réduire les délais, d’améliorer la traçabilité et d’accélérer la mise à disposition de modules internes.

D’autres cas, dans les télécommunications (Deutsche Telekom) ou encore le marketing digital (SEO automatisé), montrent que l’IA agentique commence à s’implanter dans des processus métiers impliquant un volume important de données à traiter et des tâches récurrentes à faible valeur ajoutée.

Des promesses à relativiser

Les cas d’usage présentés par les entreprises et leurs partenaires technologiques donnent un aperçu des premières applications concrètes de l’IA agentique. Cependant, ces exemples sont souvent issus de récits encadrés par les services communication, où les réussites dominent et les difficultés sont rarement évoquées. De quoi limiter la possibilité d’évaluer objectivement le degré de maturité réel des projets...

Certes, selon McKinsey, les agents IA pourraient, à terme, automatiser jusqu’à trois-quarts des tâches de bureau. Les promesses portent notamment sur des gains de productivité importants, une réduction des délais et une meilleure efficacité opérationnelle. Mais sur le terrain, la situation est plus nuancée. Gartner fait observer qu’à ce stade, la majorité des agents IA donnent de bons résultats dans des contextes bien délimités, où les tâches sont clairement spécifiées et les données maîtrisées. En dehors de ces périmètres, les limites apparaissent rapidement.

Les agents nécessitent souvent une supervision humaine étroite. En l’absence d’un contrôle explicite, les erreurs se multiplient, notamment lorsque les tâches demandées impliquent des subtilités contextuelles ou des décisions ambiguës. Dans les projets les plus avancés, le déploiement reste coûteux, tant sur le plan technique qu’organisationnel. Il suppose une refonte partielle des processus, une gouvernance adaptée, et une collaboration étroite entre les métiers et les équipes IT.

Ces exigences expliquent en partie les projections de Gartner, selon lesquelles près de 40% des projets d’agents IA pourraient échouer d’ici 2027. Cette estimation ne remet pas en cause les capacités technologiques elles-mêmes, mais souligne un autre facteur déterminant: la préparation des entreprises. Beaucoup d’organisations ne disposent pas encore des conditions nécessaires à une adoption pérenne: données fiables, cadre de gouvernance, compétences internes, ou culture de l’automatisation.

L’enjeu de l’interopérabilité

La généralisation de l’IA agentique reste conditionnée à un socle d’interopérabilité robuste. Plusieurs initiatives cherchent à combler ce manque.

Le protocole, Agent2Agent (A2A), se concentre sur la communication directe entre agents. Il vise à permettre aux agents de collaborer de manière autonome, sans passer par une couche intermédiaire. L’AP2 (Agent Payments Protocol), développé avec plus de 60 partenaires, dont des acteurs du paiement (Mastercard, PayPal, Revolut) et du Web3 (Coinbase, Ethereum Foundation), introduit un mécanisme de mandats numériques, cryptographiquement signés, pour encadrer les transactions initiées par un agent.

Le Model Context Protocol (MCP), porté par OpenAI et Anthropic, vise de son côté à créer une interface commune entre agents et outils. Son fonctionnement repose sur JSON-RPC, un protocole léger d’échange de messages. Le principe est simple: l’agent, en tant que client, envoie une requête au format JSON au serveur MCP, qui joue le rôle d’intermédiaire vers l’outil ou l’API concernée. L’appel peut être de la forme «appelle cette fonction avec tels paramètres» et la réponse suit le même format structuré. Par exemple, un agent peut interroger un système de gestion de stock, en demandant la disponibilité d’un produit, et recevoir en retour une réponse encodée de manière lisible par le modèle.

Malgré son potentiel, le MCP reste une technologie émergente, dont les premières implémentations révèlent plusieurs faiblesses, telles que mises en évidence par une étude publiée par Salesforce AI Research. D’abord, l’enchaînement d’appels via MCP entraîne une forte consommation de tokens, ce qui augmente les coûts et peut affecter les performances. Ensuite, les modèles peinent à utiliser des outils mal documentés ou exposés dans des formats non standards. Enfin, les résultats restent inégaux selon les domaines d’application: le protocole fonctionne bien pour des tâches simples, mais montre ses limites dans des environnements complexes ou faiblement structurés.

Sécurité, traçabilité et gouvernance…

Enfin, soulignons qu’à ce stade, l’adoption des agents IA soulève encore de nombreuses questions en matière de sécurité, de traçabilité et de gouvernance. Un agent n’est pas un simple outil passif: il agit dans les systèmes, accède à des données sensibles, et peut déclencher des actions automatisées. Cela pose des questions complexes: quels droits lui accorder? Comment limiter son périmètre d’action? Qui est responsable en cas d’erreur ou de fuite de données? Ces enjeux appellent la mise en place de garde-fous, reposant sur trois piliers: logging systématique, traçabilité des actions, explicabilité des décisions.

En somme, l’IA agentique n’apparaît ni comme une rupture soudaine, ni comme une mode passagère. Elle s’inscrit dans la continuité de l’automatisation intelligente, dont l’impact dépendra de la capacité des entreprises à en maîtriser les usages.

 

Webcode
wApPu33D