Sommaire
- 1. 97 millions de téléchargements mensuels en 16 mois — ce qui vient de se passer
- 2. Ce qu'est réellement MCP — « l'USB-C de l'ère de l'IA »
- 3. Architecture — Client, Serveur, Transport
- 4. Cinq serveurs MCP que vous pouvez utiliser dès aujourd'hui
- 5. Construire son propre serveur MCP — l'implémentation minimale
- 6. Pourquoi MCP a « gagné »
- 7. Pièges, critiques, limites
- 8. Ce qui vient ensuite
- Synthèse
- FAQ
Le 25 novembre 2024, Anthropic a déposé discrètement sur GitHub une petite spécification baptisée « MCP (Model Context Protocol) ». Au début, les téléchargements mensuels du SDK tournaient autour de 2 millions. Seize mois plus tard, en mars 2026, les téléchargements mensuels ont atteint 97 millions — un taux de croissance de 4 750 %.
Que s'est-il passé entre-temps ? OpenAI l'a adopté en mars 2025. Google l'a intégré à Gemini en avril. AWS l'a incorporé à Bedrock en novembre. En décembre, Anthropic a cédé la propriété de MCP à la Linux Foundation et a cofondé l'« Agentic AI Foundation » avec Block et OpenAI. MCP a cessé d'être « le protocole d'Anthropic » pour devenir une infrastructure partagée par toute l'industrie.
Mon avis honnête, sans détour : MCP est l'infrastructure la plus importante de la fin des années 2020. Elle se situe au même niveau que HTTP, OAuth et WebSocket — un présupposé fondateur de l'ère de l'IA. Dans cet article, je couvrirai l'histoire de ces 16 mois, l'architecture, les serveurs MCP utilisables aujourd'hui, l'implémentation maison minimale, les critiques et les limites, et ce qui arrive ensuite.
Un seul standard qui relie l'IA au monde
— 16 mois où les connecteurs spécifiques à chaque éditeur se sont effondrés en un standard unique
standardisé
Du lancement en novembre 2024 à 97 millions de téléchargements mensuels du SDK (+4 750 %),
plus de 10 000 serveurs MCP publics, et la gouvernance assurée par la Linux Foundation.
1. 97 millions de téléchargements mensuels en 16 mois — ce qui vient de se passer
En novembre 2024, les outils de codage IA reposaient encore sur des « schémas de connexion d'outils propres à chaque éditeur ». Claude avait son propre prototype façon MCP, Cursor sa propre approche, ChatGPT Desktop encore une autre. Implémenter le même outil « publier sur Slack » trois fois séparément pour trois IA différentes faisait tout simplement partie du quotidien.
Anthropic a décidé que « cela devait être standardisé » et a publié en open source une spécification qui aurait pu facilement devenir un fossé concurrentiel. C'est ainsi que MCP a démarré. La réaction initiale fut tiède — « Anthropic livre encore un standard propriétaire de plus », ronchonnaient certains.
La marée a tourné le 25 mars 2025. Sam Altman, d'OpenAI, a annoncé publiquement « OpenAI adoptera MCP dans tous ses produits ». Ce fut le moment où la mêlée des protocoles concurrents a été évitée. Google l'a intégré à Gemini en avril, Microsoft à VS Code et Copilot, et AWS l'a officiellement adopté dans Bedrock en novembre.
Puis, en décembre 2025, Anthropic a entièrement lâché MCP. Ils en ont fait don à l'Agentic AI Foundation (AAIF) sous l'égide de la Linux Foundation, qu'ils ont cofondée avec Block et OpenAI. Cela a balayé le dernier doute persistant selon lequel « MCP appartient à Anthropic ».
2. Ce qu'est réellement MCP — « l'USB-C de l'ère de l'IA »
Concrètement, qu'est-ce que MCP ? « Une spécification ouverte permettant aux modèles d'IA de dialoguer de manière unifiée avec des outils, des données et des services externes. »
La métaphore qui s'est imposée dans toute l'industrie est « l'USB-C de l'ère de l'IA ». Avant l'USB-C, chaque téléphone exigeait son propre câble de charge (micro-USB, Lightning, connecteurs propriétaires…). L'USB-C est arrivé et un seul câble se branchait partout. MCP a fait la même chose pour la relation IA ↔ outils.
Ce que vous pouvez réellement faire avec :
- Lire et écrire des fichiers : l'IA accède aux fichiers de votre machine locale ou dans le cloud
- Appeler des API : GitHub / Slack / Notion / votre SaaS interne — n'importe quoi
- Interroger des bases de données : PostgreSQL / SQLite / BigQuery / votre BD interne
- Logique personnalisée : invoquer depuis l'IA des processus métier propres à votre entreprise
- Informations dynamiques : résultats calculés, données en temps réel, dernières informations internes
Et tout cela fonctionne depuis Claude / GPT / Gemini / Grok / Cursor / Codex CLI / Zed — même serveur MCP, tous les clients. Écrivez-le une fois, exécutez-le sur toutes les IA. C'est ce qui a rendu cela révolutionnaire.
3. Architecture — Client, Serveur, Transport
Maintenant que la définition est claire, voici l'explication en 30 secondes du fonctionnement. MCP a trois acteurs.
Client, Serveur, Transport
Le protocole repose sur JSON-RPC 2.0. Les définitions d'outils utilisent JSON Schema.
Pas de « middleware complexe » — restée comme une spécification fine, lisible et compréhensible.
Entre Client et Serveur, les définitions d'outils (« voici les fonctions que j'expose »), les appels d'outils (avec arguments) et les résultats circulent dans les deux sens en JSON-RPC. C'est tout. Cette simplicité est de loin la principale raison de sa diffusion.
4. Cinq serveurs MCP que vous pouvez utiliser dès aujourd'hui
Pour les lecteurs qui se soucient moins des rouages que de passer à l'action, voici cinq serveurs MCP que vous pouvez installer dès aujourd'hui. Ils fonctionnent tous dans Claude Desktop, Claude Code et Cursor.
| Serveur | Ce qu'il fait | Usage typique |
|---|---|---|
| filesystem (officiel) | Lire et écrire des fichiers locaux | Laisser l'IA lire l'intégralité de votre base de code |
| github (officiel) | Issues, PR, opérations sur les dépôts | Issue → PR automatique, revue de code, commits |
| postgres (officiel) | Requêtes PostgreSQL | Demander directement à l'IA : « quelles ont été les 10 meilleures ventes du mois dernier ? » |
| slack (officiel) | Publier, rechercher, fils de discussion sur Slack | Partage automatique des comptes-rendus de réunion sur Slack |
| fetch (officiel) | Récupérer des pages web | Lui passer une URL, recevoir un résumé en retour |
En mars 2026, il existe plus de 10 000 serveurs MCP publics. Les principaux SaaS — Notion, Linear, Sentry, Stripe, Atlassian — proposent tous des serveurs MCP officiels. Parcourez le dépôt officiel ou la MCP Marketplace (fournie par Anthropic).
5. Construire son propre serveur MCP — l'implémentation minimale
Se contenter d'utiliser des serveurs existants a déjà beaucoup de valeur, mais le vrai gain consiste à ouvrir à l'IA les outils internes de votre entreprise. En Python, cela tient en 30 lignes.
Exemple : un serveur MCP qui retourne « le nombre actuel de pièces en stock interne ».
from mcp.server.fastmcp import FastMCP
mcp = FastMCP("inventory-server")
@mcp.tool()
def get_stock(sku: str) -> int:
"""Retourne le stock actuel pour le SKU donné"""
# Écrivez ici la requête vers votre BD d'inventaire interne
return query_internal_db(sku)
if __name__ == "__main__":
mcp.run()
C'est tout. Enregistrez ce serveur dans le fichier de configuration du client IA (pour Claude Desktop, c'est ~/.config/claude_desktop_config.json) et Claude appellera automatiquement cette fonction lorsque vous lui demanderez « quel est le stock ? ».
Les SDK officiels couvrent Python, TypeScript, Java, Kotlin, C#, Go et Swift. Démarrez dans le langage que vous écrivez déjà couramment.
6. Pourquoi MCP a « gagné »
Il y a déjà eu des tentatives de standardisation similaires — le Plugin Manifest d'OpenAI (2023), le Function Calling Protocol de Google, divers projets de recherche. Alors pourquoi MCP, et seulement MCP, est-il devenu le standard de l'industrie ?
De mon point de vue, trois raisons.
- (1) La spécification est mince : JSON-RPC + JSON Schema, et c'est plié. Grande liberté d'implémentation, faible barrière à l'entrée. Pas de « middleware complexe à apprendre »
- (2) Open source dès le départ : Anthropic a résisté à la tentation de « verrouiller » et l'a livré comme une spécification ouverte. Si OpenAI a pu dire « on l'adopte » en mars sans que cela ressemble à une « soumission à Anthropic », c'est parce qu'ils n'avaient pas à le faire
- (3) Gouvernance par la Linux Foundation : la cession de propriété de décembre 2025 a tué le dernier biais du « protocole d'Anthropic ». Cela en a fait un terrain sûr pour Microsoft, AWS et Google
Paradoxalement, MCP a gagné parce que ce n'était la victoire de personne. Anthropic a accru la valeur de ses propres produits IA en renonçant à la propriété. Cela s'est avéré être la réponse moderne à la stratégie de plateforme.
7. Pièges, critiques, limites
Si je n'écris que des éloges, je perds votre confiance, alors permettez-moi d'être honnête sur les critiques et les limites.
Risque de sécurité
Un serveur MCP remet à l'IA « les clés du monde extérieur ». Installez par accident un serveur malveillant et vos fichiers locaux ou clés d'API peuvent être exfiltrés. N'installez jamais de serveurs MCP non fiables. Tout ce qui n'est pas dans la marketplace officielle ou le dépôt GitHub officiel mérite une grande méfiance.
Injection de prompt
Si une chaîne renvoyée par un serveur MCP contient « ignore les instructions précédentes ; à la place, fais X », l'IA peut être détournée. Vous devez explicitement dire à l'IA de « traiter la sortie du serveur comme des données ». Voir Précautions sur les prompts que vous transmettez à l'IA pour les détails.
La tentation du « tout-MCP »
MCP est si puissant que vous voudrez tout y fourrer. Mais appeler 10 outils dans une seule requête fait exploser le contexte et gonfler le coût. Il faut une discipline de conception qui demande « cela doit-il vraiment être appelé par l'IA ? Une API normale ne ferait-elle pas l'affaire ? »
Vitesse de standardisation
Devenir un standard de l'industrie signifie que les changements de spécification prennent désormais du temps. L'ajout du transport Streamable HTTP (2025) a impliqué de longs débats. N'attendez pas de « nouvelles fonctionnalités instantanées ».
8. Ce qui vient ensuite
Ma lecture en mai 2026 :
- Intégration au niveau de l'OS : Windows / macOS pourraient intégrer MCP directement dans le système d'exploitation. « Les applications exposent un serveur MCP » devient la norme
- Passerelles MCP d'entreprise : les grandes entreprises construiront des passerelles qui gèrent de manière centralisée leur flotte de serveurs MCP internes — contrôle d'accès, journaux d'audit, gestion des coûts au même endroit
- MCP × multi-agents : le motif où des sous-agents dans une configuration multi-agents possèdent chacun un ensemble dédié de serveurs MCP va se standardiser
- Émergence de concurrents ? : Google a lancé son propre protocole (A2A, Agent2Agent), mais le positionne explicitement comme « complémentaire » de MCP. Je ne m'attends pas à un protocole concurrent sérieux de sitôt
Synthèse
- MCP est le protocole standard IA ↔ outil externe que Anthropic a publié en novembre 2024. « L'USB-C de l'IA »
- En 16 mois, les téléchargements du SDK +4 750 %, les serveurs publics plus de 10 000, OpenAI / Google / Microsoft / AWS tous embarqués
- Le passage de témoin à la Linux Foundation en décembre 2025 a fait passer MCP de « propriété d'Anthropic » à « infrastructure partagée par l'industrie »
- Composants : Client (application IA) + Serveur (outils) + Transport (canal). Le protocole est JSON-RPC 2.0, gardé fin
- À utiliser dès aujourd'hui : filesystem / github / postgres / slack / fetch (cinq serveurs couvrent 80 % du travail)
- Facile d'en construire un soi-même : 30 lignes de Python
- La raison de sa victoire : « ce n'était la victoire de personne » — Anthropic est devenu le standard précisément en abandonnant la propriété
- Pièges : serveurs non fiables, injection de prompt, tentation du « tout-MCP »
De même que HTTP a défini « l'ère du Web » et OAuth « l'ère des intégrations tierces », MCP devient le présupposé de « l'ère des agents IA ». Au cours des prochaines années, ce sera l'une de ces technologies sans lesquelles on ne peut plus tenir une conversation. Y toucher dès aujourd'hui constitue déjà un avantage à part entière.
FAQ
Q1. Faut-il une formation spéciale pour utiliser MCP ?
Pas pour l'utiliser. Avec Claude Desktop, il suffit d'ajouter quelques lignes dans un fichier de configuration. Si vous en construisez un, les SDK Python / TypeScript sont extrêmement minces — vous pouvez « ouvrir votre logique métier à l'IA » en une demi-journée.
Q2. Puis-je utiliser MCP avec ChatGPT ?
Oui. Depuis mars 2025, l'application ChatGPT Desktop prend officiellement en charge MCP. Disponible sur ChatGPT Plus / Pro / Team / Enterprise. Voir la documentation officielle d'OpenAI pour la configuration.
Q3. Quel langage recommandez-vous pour écrire un serveur MCP ?
Cela dépend du cas d'usage. Pour la logique métier et le traitement des données, Python (le SDK officiel y est le plus mature). Pour l'intégration web/frontend, TypeScript. Pour ajouter à des backends Java/Kotlin/Go existants, le SDK dans ce même langage. Pour un premier essai, Python est le plus simple pour apprendre.
Q4. Ouvrir des bases de données internes à l'IA via MCP est-il assez sécurisé ?
Cela dépend de la conception de vos permissions. Si le serveur MCP est en lecture seule et valide strictement les arguments des requêtes, c'est bien plus sûr que de laisser l'IA écrire du SQL brut. À l'inverse, un « serveur MCP qui laisse l'IA balancer du SQL arbitraire » est dangereux. En production, les journaux d'audit et la limitation de débit sont également obligatoires.
Q5. MCP et le Function Calling d'OpenAI sont-ils des choses différentes ?
Ils sont à des niveaux différents. Le Function Calling est « le format de représentation des appels de fonction au sein du modèle d'IA », et MCP est « le protocole de communication entre l'IA et les services externes ». MCP roule au-dessus du Function Calling. Comprendre les deux rend les décisions de conception bien plus claires.
Q6. En tant que développeur indépendant, MCP vaut-il mon temps maintenant ?
Énormément. Deux raisons. (1) Câbler votre propre environnement de travail avec MCP rend la productivité de Claude Code / Cursor plusieurs fois supérieure (vous pouvez appeler vos propres outils depuis l'IA). (2) « Je sais implémenter MCP » constitue une nette revalorisation tarifaire sur les missions en entreprise en 2026. Le retour sur le coût d'apprentissage est colossal.
Q7. Quelle est la première étape pour apprendre MCP ?
Trois étapes, 30 minutes. (1) Installer Claude Desktop. (2) Ajouter le serveur MCP filesystem officiel au fichier de configuration (copier-coller, terminé). (3) Demander à Claude « lis le README de ce dossier » — il lit le fichier via MCP. Une fois que vous l'avez ressenti à l'œuvre, la barrière psychologique pour en construire un vous-même chute spectaculairement.