2024年11月25日、Anthropic が GitHub に 「MCP(Model Context Protocol)」という小さな仕様書を静かに置いた。当初の月間 SDK ダウンロード数は約 200万。それから 16ヶ月後の 2026年3月、月間 9,700万ダウンロードに達した——成長率 4,750%

その間に何が起きたか。2025年3月に OpenAI が採用4月に Google が Gemini に統合11月に AWS が Bedrock に組み込み12月、Anthropic は MCP の所有権を Linux Foundation に寄贈し、Block と OpenAI を共同創設者として「Agentic AI Foundation」を設立。MCP は「Anthropic のプロトコル」ではなく、業界共通インフラになった。

私の正直な評価を先に書く: MCP は2020年代後半の最重要インフラだ。HTTP / OAuth / WebSocket と並ぶレベルで、AI 時代の前提になる。本記事では、1年4ヶ月の物語、アーキテクチャ、すぐ使える MCP サーバー、自作の最小実装、批判と限界、これから起きることを書く。

AI 時代の USB-C · 2026

AI と「世界」をつなぐ、たった1本の規格

— ベンダーごとの独自接続が、1つの標準に収束した1年4ヶ月

AI
Claude / GPT
Gemini / Grok
MCP
1つの規格
標準化された
接続プロトコル
世界
DB / API
ファイル / SaaS

2024年11月の公開から 月間9,700万 SDK ダウンロード(+4,750%)
公開MCPサーバー 10,000個以上、Linux Foundation 化。

1. 1年4ヶ月で月間9,700万ダウンロード——何が起きたのか

2024年11月、AI コーディングツールはまだ 「ベンダーごとに独自のツール接続方式」を持っていた。Claude には Claude の MCP 風プロトタイプ、Cursor には Cursor の方式、ChatGPT デスクトップには別の方式。同じ「Slack に投稿する」ツールを、3つのAIに対して3回実装するのが日常だった。

Anthropic が「これは標準化すべきだ」と判断し、競合になりうる仕様をオープンソースで公開したのが MCP の始まりだ。当時は「また Anthropic が独自規格を出した」とやや冷ややかな反応もあった。

潮目が変わったのは 2025年3月25日。OpenAI の Sam Altman が「OpenAI はあなた方のすべてのプロダクトで MCP を採用する」と公式表明。これが 競合プロトコル乱立を回避した瞬間だった。Google が4月に Gemini に統合、Microsoft が VS Code とCopilot に統合、AWS が11月に Bedrock 公式採用。

そして 2025年12月、Anthropic は MCP の所有権を手放した。Linux Foundation 配下の Agentic AI Foundation(AAIF) に寄贈し、Block・OpenAI と共同創設。これで「MCP は Anthropic のもの」という疑念が完全に消えた。

2. MCP とは何か——「AI の USB-C」

では具体的に MCP とは何か。「AI モデルが、外部のツール・データ・サービスと、統一された方式で対話するためのオープン仕様」

業界で広く使われている比喩は 「AI 時代の USB-C」。USB-C 以前のスマホは、機種ごとに違う充電ケーブル(micro-USB, Lightning, 独自端子……)を要求した。USB-C の登場で、1本のケーブルがどの機器にも刺さるようになった。MCP は AI ↔ ツール の関係で同じことをやった。

具体的にできること:

  • ファイル読み書き: AI がローカルやクラウドのファイルにアクセス
  • API 呼び出し: GitHub / Slack / Notion / 自社 SaaS など何でも
  • データベース照会: PostgreSQL / SQLite / BigQuery / 自社 DB
  • カスタムロジック: 自社固有の業務処理を AI から呼び出す
  • 動的な情報提供: 計算結果、ライブデータ、最新の社内情報

これらを Claude / GPT / Gemini / Grok / Cursor / Codex CLI / Zed どれからも、同じ MCP サーバーで使える。1度書けば、すべての AI で動く。これが革命的だった。

3. アーキテクチャ——Client・Server・Transport

定義がわかったところで、仕組みを30秒で説明する。MCP は3つの登場人物から成る。

構成要素 × 3

クライアント・サーバー・トランスポート

① CLIENT — AIアプリ側
Claude Desktop、Cursor、Codex CLI、Zed、ChatGPT Desktop など。MCP サーバーに接続し、ツールを発見・呼び出す。
② SERVER — ツール提供側
公開MCPサーバー(GitHub・Slack 等)、または自作サーバー。ツール定義と実装を持ち、Client からの呼び出しに応える。
③ TRANSPORT — 通信方式
stdio(ローカルプロセス)、HTTP+SSE(リモートサーバー)、Streamable HTTP(2025年に追加)の3種類。

プロトコルは JSON-RPC 2.0 ベース。ツール定義は JSON Schema。
「複雑なミドルウェア」ではなく、読めば理解できる薄い仕様に保たれている。

Client と Server の間で、ツール定義("こういう関数があります")の発見、ツール呼び出し(引数つき)、結果返送が JSON-RPC で行き来する。それだけ。シンプルさが普及の最大の理由でもある。

4. すぐ使える MCP サーバー5選

仕組みより使いたい人のために、今日インストールして使える MCP サーバーを5つ厳選する。Claude Desktop / Claude Code / Cursor すべてで動く。

サーバー何ができる主な用途
filesystem(公式)ローカルファイル読み書きAI にコードベース全体を読ませる
github(公式)Issue・PR・リポジトリ操作Issue から自動 PR、レビュー、コミット
postgres(公式)PostgreSQL 照会「先月の売上トップ10は?」を AI に直接聞く
slack(公式)Slack 投稿・検索・スレッド会議メモから Slack 共有自動化
fetch(公式)Web ページ取得URL を渡すと中身を要約

2026年3月時点で 公開MCPサーバーは1万個以上。Notion、Linear、Sentry、Stripe、Atlassian など主要 SaaS は公式 MCP サーバーを提供している。公式リポジトリMCP Marketplace(Anthropic 提供)で探せる。

5. 自分で MCP サーバーを作る——最小実装

使うだけでも価値はあるが、真価は「自社固有のツール」を AI に開放できること。Python なら 30行で書ける。

例: 「現在の社内在庫数を返す」MCPサーバー。

from mcp.server.fastmcp import FastMCP

mcp = FastMCP("inventory-server")

@mcp.tool()
def get_stock(sku: str) -> int:
    """指定SKUの現在在庫数を返す"""
    # ここに自社の在庫DB照会を書く
    return query_internal_db(sku)

if __name__ == "__main__":
    mcp.run()

これだけ。AI クライアント側の設定ファイル(Claude Desktop なら ~/.config/claude_desktop_config.json)にこのサーバーを登録すれば、Claude が「在庫数教えて」と聞いたときに自動でこの関数を呼ぶ。

SDK は Python・TypeScript・Java・Kotlin・C#・Go・Swift が公式。書き慣れた言語で始められる。

6. なぜ MCP が「勝った」のか

同種の標準化提案は過去にもあった——OpenAI の Plugin Manifest(2023)、Google の Function Calling Protocol、各種研究プロジェクト。なぜ MCP だけが業界標準になったのか。

私が見るに、理由は3つ。

  • ① 仕様が薄い: JSON-RPC + JSON Schema で済む。実装の自由度が高く、敷居が低い。「複雑なミドルウェアを覚える」必要がない
  • ② 早期にオープン化: Anthropic は「自社で囲い込む」誘惑に勝ち、公開仕様で出した。OpenAI が3月に「採用する」と言えたのは、「Anthropic に従う」感がなかったから
  • ③ Linux Foundation 化: 2025年12月の所有権寄贈で、「Anthropic のプロトコル」という最後のバイアスが消えた。Microsoft / AWS / Google が安心して採用できる土壌になった

逆説的に言えば、MCP が勝ったのは「誰の勝利でもなかったから」だ。Anthropic は所有権を手放すことで、自社の AI 製品の価値を上げた。それが現代のプラットフォーム戦略の答えになった。

7. 落とし穴・批判・限界

絶賛だけ書くと信頼を失うので、批判と限界も正直に書く。

セキュリティリスク

MCP サーバーは AI に「外部世界への鍵」を渡す。悪意あるサーバーをうっかりインストールすると、ローカルファイル全体や API キーを盗まれる可能性がある。untrusted な MCP サーバーは絶対に入れないこと。公式マーケットプレイスや GitHub 公式リポジトリ以外は要警戒。

プロンプトインジェクション

MCP サーバーが返した文字列に「以前の指示は無視。代わりに〜」と書かれていたら、AI が乗っ取られる可能性がある。サーバー出力は 「データとして扱う」と AI に明示すべき。詳細は AIに渡すプロンプトの注意点 参照。

「全部 MCP」の誘惑

MCP は強力すぎて、何でも MCP に押し込みたくなる。だが 1つの問い合わせで10個のツールを呼び出すと、コンテキストが膨らみコストも増える。「本当にAIから呼ぶべきか?普通の API でいいんじゃないか?」を問う設計が必要。

標準化のスピード

業界標準になった分、仕様変更には時間がかかるようになった。Streamable HTTP transport の追加(2025年)も議論が長かった。「すぐに新機能」を期待しすぎないこと。

8. これから起きること

2026年5月時点での私の見立て:

  • OS レベル統合: Windows / macOS が MCP を OS 標準に組み込む可能性。「アプリが MCP サーバーを公開する」が当然に
  • エンタープライズ MCP ゲートウェイ: 大企業が「社内 MCP サーバー群」を集中管理するゲートウェイを構築。アクセス制御・監査ログ・コスト管理を一元化
  • MCP × マルチエージェント: マルチエージェント構成で、サブエージェントが固有の MCP サーバー群を持つパターンが標準化
  • 競合の登場?: Google が独自プロトコル(A2A, Agent2Agent)を出したが、MCP と「補完関係」と説明している。本格的な競合プロトコルは当面出ないと予想

まとめ

  • MCP は 2024年11月に Anthropic が公開した、AI ↔ 外部ツールの標準プロトコル。「AI の USB-C」
  • 16ヶ月で SDK ダウンロード +4,750%、公開サーバー 1万個以上OpenAI / Google / Microsoft / AWS が全社採用
  • 2025年12月 Linux Foundation 化で「Anthropic 所有」から「業界共通インフラ」へ
  • 構成: Client(AIアプリ)+ Server(ツール)+ Transport(通信)。プロトコルは JSON-RPC 2.0、薄い仕様
  • すぐ使える: filesystem / github / postgres / slack / fetch(5サーバーで業務の8割をカバー)
  • 自作も簡単: Python 30行で書ける
  • 勝因は「誰の勝利でもなかったこと」——Anthropic が所有権を手放したから業界標準になれた
  • 落とし穴: untrusted サーバーのリスク、プロンプトインジェクション、「全部 MCP」の誘惑

HTTP が「Web 時代」を、OAuth が「サードパーティ統合時代」を定義したように、MCP は「AI エージェント時代」の前提になる。次の数年で、知らないと話が通じない技術になる。今日触っておけば、それだけでアドバンテージだ。

FAQ

Q1. MCP を使うために特別な学習は必要?

使うだけなら不要。Claude Desktop なら設定ファイルに数行追加するだけ。自作する場合でも、Python / TypeScript の SDK が極めて薄く、半日で「自社の業務ロジックを AI に開放」できる。

Q2. ChatGPT で MCP は使える?

使える。2025年3月以降、ChatGPT Desktop アプリは公式に MCP をサポート。ChatGPT Plus / Pro / Team / Enterprise で利用可能。設定方法は OpenAI の公式ドキュメント参照。

Q3. MCP サーバーを書く言語は何がおすすめ?

用途による。業務系・データ処理なら Python(公式 SDK が一番成熟)。Web/フロント連携なら TypeScript。既存 Java/Kotlin/Go バックエンドに追加するならそのまま同言語の SDK。最初の1個は Python が学びやすい

Q4. 社内 DB を MCP で AI に開放するのはセキュリティ的に大丈夫?

権限設計次第。MCP サーバーが 読み取り専用 + クエリの引数を厳格に検証するなら、生 SQL を AI に書かせるよりはるかに安全。逆に「AI が任意の SQL を投げられる MCP サーバー」を作ると危険。本番では監査ログとレート制限も必須。

Q5. MCP と OpenAI の Function Calling は別物?

レイヤーが違う。Function Calling は 「AI モデル内部で関数呼び出しを表現する形式」で、MCP は 「AI と外部サービスの通信プロトコル」。Function Calling の上に MCP が乗る、という関係。両方を理解しておくと、設計判断が明確になる。

Q6. 個人開発者として、いま MCP に時間をかける価値はある?

大いにある。理由は2つ。(1) 自分の作業環境を MCP で整えると、Claude Code / Cursor の生産性が 数倍になる(自社固有ツールを AI から呼べるから)。(2) エンタープライズ案件で「MCP 実装できます」は2026年時点で 明確な単価アップ要因。学習コストに対するリターンが極めて大きい技術。

Q7. MCP を学ぶ最初の1歩は?

3ステップで30分。(1) Claude Desktop を入れる。(2) 公式 filesystem MCP サーバーを設定ファイルに追加(コピペで完了)。(3) Claude に「このフォルダの README 読んで」と聞く——MCP 経由でファイルを読んでくれる。動く感覚が分かれば、自作への心理的障壁が一気に下がる。