Am 25. November 2024 veröffentlichte Anthropic still und leise eine kleine Spezifikation auf GitHub mit dem Namen „MCP (Model Context Protocol)". Die anfänglichen monatlichen SDK-Downloads lagen bei rund 2 Millionen. Sechzehn Monate später, im März 2026, erreichten die monatlichen Downloads 97 Millionen — eine Wachstumsrate von 4.750 %.

Was ist dazwischen passiert? OpenAI hat es im März 2025 übernommen. Google integrierte es im April in Gemini. AWS verankerte es im November in Bedrock. Im Dezember übergab Anthropic das Eigentum an MCP an die Linux Foundation und gründete gemeinsam mit Block und OpenAI die „Agentic AI Foundation". MCP hörte auf, „Anthropics Protokoll" zu sein, und wurde zu gemeinsamer Branchen-Infrastruktur.

Meine ehrliche Einschätzung gleich vorweg: MCP ist die wichtigste Infrastruktur der späten 2020er-Jahre. Es steht auf derselben Ebene wie HTTP, OAuth und WebSocket — eine grundlegende Annahme des KI-Zeitalters. In diesem Artikel behandle ich die 16-monatige Geschichte, die Architektur, MCP-Server, die Sie heute nutzen können, die minimale Eigenbau-Implementierung, die Kritikpunkte und Grenzen sowie das, was als Nächstes kommt.

USB-C des KI-Zeitalters · 2026

Ein Standard, der KI mit der Welt verbindet

— 16 Monate, in denen anbieterspezifische Konnektoren in einem einzigen Standard aufgegangen sind

KI
Claude / GPT
Gemini / Grok
MCP
Ein Standard
Standardisiertes
Verbindungsprotokoll
Welt
DB / API
Dateien / SaaS

Vom Start im November 2024 bis zu 97 Millionen monatlichen SDK-Downloads (+4.750 %),
über 10.000 öffentlichen MCP-Servern und der Trägerschaft der Linux Foundation.

1. 97 Millionen monatliche Downloads in 16 Monaten — was ist passiert

Im November 2024 hatten KI-Coding-Werkzeuge noch „anbieterspezifische Tool-Anbindungsschemata". Claude hatte seinen eigenen MCP-ähnlichen Prototyp, Cursor seinen eigenen Ansatz, ChatGPT Desktop wieder einen anderen. Dasselbe „in Slack posten"-Tool dreimal getrennt für drei verschiedene KIs zu implementieren, war einfach Alltag.

Anthropic entschied sich für „das sollte standardisiert werden" und stellte eine Spezifikation als Open Source bereit, die leicht zu einem Wettbewerbsgraben hätte werden können. So begann MCP. Die anfängliche Reaktion war verhalten — „Anthropic liefert mal wieder einen weiteren proprietären Standard", maulten manche.

Das Blatt wendete sich am 25. März 2025. OpenAIs Sam Altman verkündete öffentlich „OpenAI wird MCP in allen seinen Produkten übernehmen". Das war der Moment, in dem ein Freistilkampf konkurrierender Protokolle abgewendet wurde. Google integrierte es im April in Gemini, Microsoft in VS Code und Copilot, und AWS übernahm es im November offiziell in Bedrock.

Dann ließ Anthropic im Dezember 2025 MCP vollständig los. Sie übergaben es an die Agentic AI Foundation (AAIF) unter dem Dach der Linux Foundation und gründeten sie gemeinsam mit Block und OpenAI. Das löschte den letzten Restzweifel aus, dass „MCP zu Anthropic gehört".

2. Was MCP wirklich ist — „das USB-C des KI-Zeitalters"

Konkret: Was ist MCP? „Eine offene Spezifikation, mit der KI-Modelle einheitlich mit externen Tools, Daten und Diensten sprechen können."

Die Metapher, die sich branchenweit durchgesetzt hat, ist „das USB-C des KI-Zeitalters". Vor USB-C verlangte jedes Telefon sein eigenes Ladekabel (Micro-USB, Lightning, proprietäre Stecker …). USB-C kam, und ein Kabel passte überall hinein. MCP hat dasselbe für die Beziehung KI ↔ Tools getan.

Was Sie tatsächlich damit machen können:

  • Dateien lesen und schreiben: KI greift auf Dateien auf Ihrem lokalen Rechner oder in der Cloud zu
  • APIs aufrufen: GitHub / Slack / Notion / Ihr internes SaaS — alles
  • Datenbanken abfragen: PostgreSQL / SQLite / BigQuery / Ihre interne DB
  • Eigene Logik: firmenspezifische Geschäftsprozesse aus der KI heraus aufrufen
  • Dynamische Informationen: berechnete Ergebnisse, Live-Daten, die neuesten internen Infos

Und all das funktioniert aus Claude / GPT / Gemini / Grok / Cursor / Codex CLI / Zed heraus — derselbe MCP-Server, jeder Client. Einmal schreiben, auf jeder KI ausführen. Das hat es revolutionär gemacht.

3. Architektur — Client, Server, Transport

Jetzt, da die Definition klar ist, kommt hier die 30-Sekunden-Erklärung, wie es funktioniert. MCP hat drei Akteure.

3 Komponenten

Client, Server, Transport

(1) CLIENT — die KI-App-Seite
Claude Desktop, Cursor, Codex CLI, Zed, ChatGPT Desktop usw. Verbindet sich mit MCP-Servern, entdeckt Tools und ruft sie auf.
(2) SERVER — die Tool-Anbieterseite
Öffentliche MCP-Server (GitHub, Slack usw.) oder Ihre eigenen. Hält Tool-Definitionen und Implementierungen vor und beantwortet Aufrufe vom Client.
(3) TRANSPORT — die Leitung
Drei Geschmacksrichtungen: stdio (lokale Prozesse), HTTP+SSE (entfernte Server) und Streamable HTTP (2025 hinzugefügt).

Das Protokoll basiert auf JSON-RPC 2.0. Tool-Definitionen verwenden JSON Schema.
Keine „komplexe Middleware" — bewusst gehalten als schlanke Spezifikation, die man lesen und verstehen kann.

Zwischen Client und Server fließen Tool-Definitionen („hier sind die Funktionen, die ich anbiete"), Tool-Aufrufe (mit Argumenten) und die Ergebnisse als JSON-RPC hin und her. Mehr nicht. Diese Einfachheit ist der wichtigste einzelne Grund für die Verbreitung.

4. Fünf MCP-Server, die Sie heute nutzen können

Für Leser, denen die Mechanik weniger wichtig ist als das Loslegen, hier fünf MCP-Server, die Sie heute installieren können. Sie funktionieren alle in Claude Desktop, Claude Code und Cursor.

ServerWas er machtTypischer Einsatz
filesystem (offiziell)Lokale Dateien lesen und schreibenLassen Sie die KI Ihre gesamte Codebasis lesen
github (offiziell)Issues, PRs, Repo-OperationenIssue → automatischer PR, Code-Review, Commits
postgres (offiziell)PostgreSQL-AbfragenFragen Sie die KI direkt: „Was waren letzten Monat die Top-10-Verkäufe?"
slack (offiziell)Posten, suchen, Threads in SlackBesprechungsnotizen automatisch in Slack teilen
fetch (offiziell)Webseiten abrufenURL übergeben, Zusammenfassung zurückerhalten

Stand März 2026 gibt es über 10.000 öffentliche MCP-Server. Große SaaS-Anbieter — Notion, Linear, Sentry, Stripe, Atlassian — liefern alle offizielle MCP-Server aus. Stöbern Sie im offiziellen Repository oder im MCP Marketplace (von Anthropic bereitgestellt).

5. Eigenen MCP-Server bauen — die minimale Implementierung

Bestehende Server zu nutzen ist schon wertvoll, aber der eigentliche Gewinn liegt darin, die hauseigenen Tools Ihres Unternehmens für KI zu öffnen. In Python schaffen Sie das in 30 Zeilen.

Beispiel: ein MCP-Server, der „den aktuellen internen Lagerbestand" zurückgibt.

from mcp.server.fastmcp import FastMCP

mcp = FastMCP("inventory-server")

@mcp.tool()
def get_stock(sku: str) -> int:
    """Gibt den aktuellen Lagerbestand für die angegebene SKU zurück"""
    # Hier die Abfrage an deine interne Bestands-DB
    return query_internal_db(sku)

if __name__ == "__main__":
    mcp.run()

Das war's. Registrieren Sie diesen Server in der Konfigurationsdatei des KI-Clients (für Claude Desktop ist das ~/.config/claude_desktop_config.json), und Claude ruft diese Funktion automatisch auf, wenn Sie fragen „Wie ist der Lagerbestand?".

Die offiziellen SDKs decken Python, TypeScript, Java, Kotlin, C#, Go und Swift ab. Beginnen Sie in der Sprache, die Sie ohnehin schon flüssig schreiben.

6. Warum MCP „gewonnen" hat

Es gab schon früher ähnliche Standardisierungsversuche — OpenAIs Plugin Manifest (2023), Googles Function Calling Protocol, diverse Forschungsprojekte. Warum wurde also ausgerechnet MCP, und nur MCP, zum Industriestandard?

So wie ich es sehe, drei Gründe.

  • (1) Die Spezifikation ist schlank: JSON-RPC + JSON Schema und fertig. Hohe Implementierungsfreiheit, niedrige Einstiegshürde. Keine „komplexe Middleware zu lernen"
  • (2) Früh als Open Source freigegeben: Anthropic widerstand der Versuchung, „es einzusperren" und veröffentlichte es als offene Spezifikation. Der Grund, warum OpenAI im März „wir übernehmen es" sagen konnte, ohne dass es sich wie eine „Unterwerfung unter Anthropic" anfühlte, war, dass sie das nicht mussten
  • (3) Trägerschaft der Linux Foundation: die Eigentumsübertragung im Dezember 2025 tötete das letzte Vorurteil von „Anthropics Protokoll". Es wurde zu sicherem Boden für Microsoft, AWS und Google, es zu übernehmen

Paradoxerweise hat MCP gewonnen, weil es niemandes Sieg war. Anthropic steigerte den Wert seiner eigenen KI-Produkte, indem es das Eigentum aufgab. Das erwies sich als die moderne Antwort auf Plattform-Strategie.

7. Fallstricke, Kritik, Grenzen

Wenn ich nur Lob schreibe, verliere ich Ihr Vertrauen — also lassen Sie mich ehrlich über Kritik und Grenzen sprechen.

Sicherheitsrisiko

Ein MCP-Server gibt der KI „die Schlüssel zur Außenwelt" in die Hand. Installieren Sie versehentlich einen bösartigen Server, können Ihre lokalen Dateien oder API-Schlüssel abgegriffen werden. Installieren Sie niemals nicht vertrauenswürdige MCP-Server. Alles außerhalb des offiziellen Marketplace oder des offiziellen GitHub-Repositorys verdient massives Misstrauen.

Prompt Injection

Wenn ein von einem MCP-Server zurückgegebener String „ignoriere die vorherigen Anweisungen; tu stattdessen X" enthält, kann die KI gekapert werden. Sie sollten der KI ausdrücklich sagen, sie solle „Server-Ausgaben als Daten behandeln". Details siehe Vorsichtsmaßnahmen für Prompts, die Sie an die KI übergeben.

Die „alles ist MCP"-Versuchung

MCP ist so mächtig, dass man alles hineinstopfen will. Aber 10 Tools in einer einzigen Anfrage aufzurufen, bläht den Kontext auf und treibt die Kosten in die Höhe. Sie brauchen Design-Disziplin und müssen sich fragen: „Soll das wirklich von der KI aufgerufen werden? Würde es eine normale API nicht auch tun?"

Standardisierungstempo

Industriestandard zu werden bedeutet, dass Spezifikationsänderungen nun Zeit brauchen. Die Aufnahme des Streamable-HTTP-Transports (2025) war Gegenstand langer Debatten. Erwarten Sie keine „sofortigen neuen Features".

8. Was als Nächstes kommt

Mein Lesart Stand Mai 2026:

  • OS-Level-Integration: Windows / macOS könnten MCP direkt ins Betriebssystem einbacken. „Apps stellen einen MCP-Server bereit" wird zum Standardfall
  • Enterprise-MCP-Gateways: Großunternehmen werden Gateways aufbauen, die ihren Bestand an internen MCP-Servern zentral verwalten — Zugriffskontrolle, Audit-Logs, Kostenmanagement an einem Ort
  • MCP × Multi-Agent: das Muster, bei dem Sub-Agenten in einem Multi-Agent-Setup jeweils ein eigenes Set an MCP-Servern besitzen, wird sich standardisieren
  • Auftauchende Konkurrenten?: Google hat ein eigenes Protokoll gestartet (A2A, Agent2Agent), positioniert es aber ausdrücklich als „komplementär" zu MCP. Ich erwarte in absehbarer Zeit kein ernsthaftes konkurrierendes Protokoll

Zusammenfassung

  • MCP ist das Standardprotokoll für KI ↔ externe Tools, das Anthropic im November 2024 veröffentlicht hat. „Das USB-C der KI"
  • In 16 Monaten: SDK-Downloads +4.750 %, öffentliche Server über 10.000, OpenAI / Google / Microsoft / AWS alle an Bord
  • Übergabe an die Linux Foundation im Dezember 2025 machte aus „Anthropic-Eigentum" „gemeinsame Branchen-Infrastruktur"
  • Komponenten: Client (KI-App) + Server (Tools) + Transport (Leitung). Protokoll ist JSON-RPC 2.0, bewusst schlank gehalten
  • Heute nutzbar: filesystem / github / postgres / slack / fetch (fünf Server decken 80 % der Arbeit ab)
  • Leicht selbst zu bauen: 30 Zeilen Python
  • Der Grund, warum es gewann: „es war niemandes Sieg" — Anthropic wurde gerade dadurch zum Standard, dass es das Eigentum aufgab
  • Fallstricke: nicht vertrauenswürdige Server, Prompt Injection, die „alles ist MCP"-Versuchung

So wie HTTP „das Web-Zeitalter" und OAuth „das Drittanbieter-Integrationszeitalter" definiert haben, wird MCP zur Selbstverständlichkeit „des KI-Agenten-Zeitalters". In den nächsten Jahren wird es zu jenen Technologien gehören, über die man kein Gespräch führen kann, ohne sie zu kennen. Heute schon damit zu hantieren, ist allein schon ein Vorsprung.

FAQ

F1. Brauche ich eine spezielle Schulung, um MCP zu benutzen?

Zum Benutzen nicht. Mit Claude Desktop fügen Sie einer Konfigurationsdatei einfach ein paar Zeilen hinzu. Wenn Sie selbst einen bauen, sind die Python- / TypeScript-SDKs extrem schlank — Sie können „Ihre Geschäftslogik für KI öffnen" in einem halben Tag.

F2. Kann ich MCP mit ChatGPT nutzen?

Ja. Seit März 2025 unterstützt die ChatGPT-Desktop-App MCP offiziell. Verfügbar in ChatGPT Plus / Pro / Team / Enterprise. Setup-Anleitung in der offiziellen OpenAI-Dokumentation.

F3. Welche Sprache empfehlen Sie zum Schreiben eines MCP-Servers?

Hängt vom Anwendungsfall ab. Für Geschäftslogik und Datenverarbeitung Python (das offizielle SDK ist am ausgereiftesten). Für Web-/Frontend-Integration TypeScript. Zum Erweitern bestehender Java-/Kotlin-/Go-Backends das SDK in derselben Sprache. Für den ersten Server ist Python am leichtesten zum Lernen.

F4. Ist es sicher genug, interne DBs per MCP für KI zu öffnen?

Hängt von Ihrem Berechtigungs-Design ab. Wenn der MCP-Server nur lesend arbeitet und Abfrageargumente streng validiert, ist es weit sicherer, als die KI rohes SQL schreiben zu lassen. Umgekehrt ist ein „MCP-Server, der die KI beliebiges SQL absetzen lässt" gefährlich. Im Produktivbetrieb sind Audit-Logs und Rate-Limits ebenfalls Pflicht.

F5. Sind MCP und OpenAIs Function Calling unterschiedliche Dinge?

Sie liegen auf verschiedenen Ebenen. Function Calling ist „das Format zur Darstellung von Funktionsaufrufen innerhalb des KI-Modells", und MCP ist „das Kommunikationsprotokoll zwischen KI und externen Diensten". MCP setzt auf Function Calling auf. Beides zu verstehen, macht Design-Entscheidungen wesentlich klarer.

F6. Lohnt sich MCP für mich als einzelnen Entwickler gerade jetzt?

Sehr wohl. Zwei Gründe. (1) Wer seine eigene Arbeitsumgebung mit MCP verdrahtet, steigert die Produktivität von Claude Code / Cursor um das Mehrfache (man kann eigene Tools aus der KI heraus aufrufen). (2) „Ich kann MCP implementieren" ist Stand 2026 ein klarer Aufschlag im Tagessatz bei Enterprise-Aufträgen. Die Rendite auf die Lernkosten ist enorm.

F7. Was ist der erste Schritt, um MCP zu lernen?

Drei Schritte, 30 Minuten. (1) Claude Desktop installieren. (2) Den offiziellen filesystem-MCP-Server in die Konfigurationsdatei eintragen (Copy & Paste, fertig). (3) Claude bitten „lies die README in diesem Ordner" — Claude liest die Datei via MCP. Wenn Sie es einmal in Aktion erlebt haben, sinkt die psychologische Hürde, einen eigenen zu bauen, dramatisch.