Le MCP (Model Context Protocol) est un protocole ouvert lancé par Anthropic fin 2024 pour standardiser la connexion entre LLM et systèmes externes — fichiers locaux, bases de données, APIs SaaS, outils internes. Avant MCP, chaque équipe réimplémentait son propre function calling couplé à un modèle spécifique. Avec MCP, on construit un serveur (qui expose des outils, ressources, prompts) une fois, et n'importe quel client compatible — Claude Desktop, Cursor, Zed, agents custom — peut s'y brancher.
Techniquement, MCP est un protocole basé sur JSON-RPC qui définit trois primitives : tools (fonctions appelables, équivalent du function calling), resources (fichiers, documents, données accessibles en lecture), prompts (templates réutilisables). Le serveur tourne en local ou en remote, le client (l'application IA) se connecte via stdio ou HTTP. En 2026, l'écosystème compte des centaines de serveurs MCP — GitHub, Slack, Linear, Notion, Postgres, filesystem, etc. Anthropic, OpenAI et plusieurs autres acteurs ont rallié le standard, ce qui en fait le candidat sérieux à devenir l'interface universelle pour les outils d'agent IA.
Pour une PME ou ETI, l'intérêt est concret : un seul serveur MCP exposant votre CRM ou ERP devient utilisable par tout l'écosystème agent — Claude Desktop pour les analystes, agent custom pour le support, Cursor pour les devs, chatbot IA pour le commercial. C'est aussi un argument fort pour ne plus dépendre d'un seul fournisseur de LLM : on change de modèle sans réécrire les intégrations. Pour les projets logiciel sur-mesure en 2026, on conçoit nativement avec MCP en tête.
MCP en pratique : 4 cas d'usage typiques
- Exposer un CRM ou ERP à un agent IA sans coupler le code à un LLM précis.
- Donner accès à une base documentaire interne (filesystem, Notion, Confluence) via un seul serveur.
- Mutualiser les outils entre Claude Desktop, Cursor, agents custom — un serveur pour tous.
- Préparer la migration entre LLM (Claude → GPT → autre) sans réécrire la couche outils.
