Anthropic dévoile un standard pour l’accès des LLM aux données contextuelles
Anthropic annonce un protocole open source pour connecter de manière standardisée une application LLM à des sources de données «contextuelles», fichiers, réponses API, etc.
Anthropic lance un standard open source baptisé MCP (pour Multi Context Protocol) permettant aux LLM d’accéder à des données de contexte. Un SDK permet aux développeurs de créer des serveurs MCP faisant office de connecteurs aux diverses sources de données: fichiers de l’ordinateur, bases de données, fichiers de logs, environnement de développement, réponses API.
Via ces serveurs MCP, l’application LLM (Claude ou autre) est capable de se connecter aux ressources pour lire les informations et s’abonner à des mises à jour. Anthropic recommande naturellement de veiller à implémenter des accès appropriés aux ressources et à les auditer.
A titre d’exemple, la solution pourrait permettre d’interroger un PDF de l’ordinateur depuis le chat ou de donner du code Github sans avoir à faire un copier-coller. A ce titre, elle s’inscrit dans la même veine que l’outil de contrôle de l’ordinateur dévoilé par le même Anthropic au mois d’octobre.
«Que vous construisiez un IDE alimenté par l'IA, que vous amélioriez une interface de chat ou que vous créiez des workflows d'IA personnalisés, MCP offre un moyen standardisé de connecter les LLM au contexte dont ils ont besoin», explique Anthropic dans sa documentation.
Pour faciliter la démarche des développeurs, l’entreprise met à disposition des serveurs MCP pré-construits pour diverses applications - Google Drive, Slack, GitHub, Git, Postgres et Puppeteer - ainsi que repository. Elle annonce également le support de MCP Server pour les applications desktop Claude. Reste à savoir si OpenAI, Google et autres adopteront le standard…