目录
2024 年 11 月 25 日,Anthropic 在 GitHub 上不动声色地发布了一份小小的规范,叫做 "MCP(Model Context Protocol)"。最初的 SDK 月下载量大约是 200 万。十六个月后的 2026 年 3 月,月下载量冲到了 9700 万——增长率 4750%。
这中间发生了什么?2025 年 3 月,OpenAI 宣布采纳。4 月,Google 把它集成进 Gemini。11 月,AWS 把它内嵌进 Bedrock。12 月,Anthropic 把 MCP 的所有权捐给了 Linux 基金会,并和 Block、OpenAI 一起成立了"Agentic AI Foundation"。MCP 不再是"Anthropic 的协议",而成了整个行业共享的基础设施。
开门见山地说我的看法:MCP 是 2020 年代后半期最重要的基础设施。它的地位和 HTTP、OAuth、WebSocket 一个层级——是 AI 时代的底层假设。本文会讲清楚这 16 个月的故事、架构、今天就能用的 MCP server、最小自制实现、批评与边界,以及接下来会发生什么。
把 AI 与世界相连的一项标准
——16 个月内,各家厂商专属的连接器统统坍缩成同一份标准
连接协议
从 2024 年 11 月发布,到 SDK 月下载 9700 万(+4750%),
公开 MCP server 超过 1 万个,由 Linux 基金会托管。
1. 16 个月月下载量飙到 9700 万——到底发生了什么
2024 年 11 月,AI 编程工具仍然普遍是"各家自己的工具接入方式"。Claude 有自家的 MCP 风格雏形,Cursor 有 Cursor 的方式,ChatGPT Desktop 又是另一套。同一个"往 Slack 发消息"的工具,要给三家 AI 各写三遍,是工程师的日常。
Anthropic 决定"这事得标准化",把一份本来很可能成为竞争护城河的规范开源了。MCP 就是这么开始的。早期反响其实平平——还有人嘀咕"Anthropic 又在搞自家的私有标准了"。
风向逆转是在 2025 年 3 月 25 日。OpenAI 的 Sam Altman 公开宣布"OpenAI 将在所有产品中采纳 MCP"。这一刻,避免了一场"协议混战"。4 月 Google 把它集成进 Gemini,Microsoft 接进 VS Code 和 Copilot,11 月 AWS 在 Bedrock 中正式采纳。
然后是 2025 年 12 月,Anthropic 彻底放手 MCP。他们把它捐给了 Linux 基金会下属的 Agentic AI Foundation(AAIF),并和 Block、OpenAI 共同发起。"MCP 是 Anthropic 的"这个最后的疑虑也就被抹掉了。
2. MCP 究竟是什么——"AI 时代的 USB-C"
那 MCP 具体是什么?"一份让 AI 模型用统一方式跟外部工具、数据、服务对话的开放规范。"
整个行业最终接受的那个比喻是"AI 时代的 USB-C"。USB-C 出现之前,每部手机都要自己专属的充电线(micro-USB、Lightning、各种私有接口……)。USB-C 一出现,一根线插遍所有设备。MCP 就是给 AI 与工具的关系做了同样的事。
具体能做什么:
- 读写文件:让 AI 访问本地或云端的文件
- 调用 API:GitHub / Slack / Notion / 公司自己的 SaaS——什么都行
- 查询数据库:PostgreSQL / SQLite / BigQuery / 公司内部 DB
- 自定义逻辑:从 AI 调用公司专属的业务流程
- 动态信息:计算结果、实时数据、最新内部信息
而以上这些,从 Claude / GPT / Gemini / Grok / Cursor / Codex CLI / Zed 都能调用——同一个 MCP server,所有客户端通用。写一次,所有 AI 上都能跑。这才是这场革命的核心。
3. 架构——Client、Server、Transport
定义说清楚了,接下来用30 秒讲明白它怎么跑。MCP 有三个角色。
Client、Server、Transport
协议建立在 JSON-RPC 2.0 之上。工具定义用 JSON Schema。
不是"复杂中间件"——刻意做成读得懂、看得明白的薄规范。
Client 与 Server 之间,用 JSON-RPC 来回传工具定义("我提供这些函数")、工具调用(带参数)、调用结果。仅此而已。这种简单本身,就是它能扩散开来的最大单一原因。
4. 今天就能用的五个 MCP server
给那些不太关心机制、只想立刻动手的读者,下面是今天就能装上用的五个 MCP server。它们在 Claude Desktop、Claude Code、Cursor 上都能跑。
| Server | 能干什么 | 典型用途 |
|---|---|---|
| filesystem(官方) | 读写本地文件 | 让 AI 通读整个代码库 |
| github(官方) | Issues、PR、仓库操作 | Issue → 自动开 PR、代码审查、commit |
| postgres(官方) | PostgreSQL 查询 | 直接问 AI:"上个月销售额前 10 是哪些?" |
| slack(官方) | Slack 发消息、搜索、线程 | 把会议纪要自动同步到 Slack |
| fetch(官方) | 抓取网页 | 丢一个 URL 给它,回来就是摘要 |
截至 2026 年 3 月,公开的 MCP server 已超过 1 万个。Notion、Linear、Sentry、Stripe、Atlassian 这些主流 SaaS 都自带官方 MCP server。可以浏览官方仓库或 MCP Marketplace(由 Anthropic 提供)。
5. 自己写一个 MCP server——最小实现
用现成的 server 当然有价值,但真正的杀手锏是把公司自己的工具开放给 AI。Python 的话,30 行就能搞定。
例子:返回"当前内部库存数量"的 MCP server。
from mcp.server.fastmcp import FastMCP
mcp = FastMCP("inventory-server")
@mcp.tool()
def get_stock(sku: str) -> int:
"""返回指定 SKU 的当前库存数量"""
# 在这里写公司内部库存数据库的查询
return query_internal_db(sku)
if __name__ == "__main__":
mcp.run()
就这些。把这个 server 注册到 AI 客户端的配置文件里(Claude Desktop 是 ~/.config/claude_desktop_config.json),之后你问"库存多少?",Claude 就会自动调这个函数。
官方 SDK 覆盖 Python、TypeScript、Java、Kotlin、C#、Go、Swift。哪个语言你写得最顺手就用哪个。
6. MCP 为什么"赢"了
类似的标准化尝试以前也有过——OpenAI 的 Plugin Manifest(2023)、Google 的 Function Calling Protocol、各种学术项目。为什么偏偏只有 MCP 成了行业标准?
我看下来,三个原因。
- (1) 规范薄:JSON-RPC + JSON Schema 就完事了。实现自由度高,入门门槛低。没有"要学的复杂中间件"
- (2) 早早开源:Anthropic 抵住了"圈起来"的诱惑,把它作为开放规范发布。3 月 OpenAI 能说"我们采纳"而不显得像"向 Anthropic 投降",正是因为他们根本不需要
- (3) 由 Linux 基金会托管:2025 年 12 月的所有权捐赠,把"Anthropic 的协议"这层最后的偏见也消除了。Microsoft、AWS、Google 采纳起来才有了安全感
讽刺的是,MCP 之所以赢,正因为它不是任何人的胜利。Anthropic 通过放弃所有权,反而提升了自家 AI 产品的价值。这成了平台战略在当代的标准答案。
7. 坑、批评与边界
只写赞美会失去你的信任,所以批评和边界我也照实说。
安全风险
MCP server 等于把"通往外部世界的钥匙"递给 AI。一不小心装上恶意 server,本地文件或 API key 就可能被外泄。绝对不要安装来源不明的 MCP server。不在官方 marketplace 或官方 GitHub 仓库里的东西,都得高度警惕。
提示词注入
如果 MCP server 返回的字符串里夹带"忽略之前的指令,改为执行 X",AI 就可能被劫持。需要明确告诉 AI"把 server 的输出当数据看待"。详见传给 AI 的提示词的注意事项。
"什么都塞进 MCP"的诱惑
MCP 太强大了,你会想把所有东西都塞进去。但一次查询里调 10 个工具,会让上下文膨胀、成本飞涨。需要有设计纪律去问:"这个真的应该让 AI 调吗?普通 API 不行吗?"
标准化的速度
成为行业标准也意味着规范变更要花时间。Streamable HTTP 这种 transport 的加入(2025),就经过了漫长讨论。别指望"新功能立刻就有"。
8. 接下来会发生什么
2026 年 5 月时点的我的判断:
- OS 层级集成:Windows / macOS 可能把 MCP 烤进操作系统本身。"应用对外开放一个 MCP server"会成为默认
- 企业 MCP gateway:大企业会搭建 gateway,集中管理一组内部 MCP server——访问控制、审计日志、成本管理一体化
- MCP × 多智能体:在多智能体架构里,让每个子智能体各自持有专属 MCP server 集合的模式将会标准化
- 会出现竞争协议吗?:Google 推出了自己的协议(A2A,Agent2Agent),但明确把它定位为对 MCP 的"互补"。短期内我不认为会出现真正意义上的竞争协议
总结
- MCP 是 Anthropic 在 2024 年 11 月发布的 AI ↔ 外部工具标准协议。"AI 的 USB-C"
- 16 个月里 SDK 下载 +4750%,公开 server 超过 1 万个,OpenAI / Google / Microsoft / AWS 全部上车
- 2025 年 12 月移交 Linux 基金会,从"Anthropic 所有"变为"行业共享基础设施"
- 组件:Client(AI 应用)+ Server(工具)+ Transport(通信线路)。协议是 JSON-RPC 2.0,做得够薄
- 今天能用:filesystem / github / postgres / slack / fetch(五个 server 覆盖 80% 的工作)
- 自己写也容易:30 行 Python
- 赢的原因:"它不是任何人的胜利"——Anthropic 之所以成为标准,恰恰是因为放弃了所有权
- 坑:来源不明的 server、提示词注入、"什么都塞进 MCP"的诱惑
就像 HTTP 定义了"Web 时代"、OAuth 定义了"第三方集成时代"一样,MCP 正成为"AI 智能体时代"的前提。未来几年,它会是那种不知道就插不上话的技术之一。今天就上手,光这一点就是优势。
FAQ
Q1. 用 MCP 需要专门培训吗?
用的话不用。Claude Desktop 只要在配置文件里加几行就行。如果是要做一个,Python / TypeScript SDK 都极薄——半天就能"把业务逻辑开放给 AI"。
Q2. ChatGPT 能用 MCP 吗?
能。2025 年 3 月起,ChatGPT Desktop 应用正式支持 MCP。在 ChatGPT Plus / Pro / Team / Enterprise 上可用。配置方式参见 OpenAI 官方文档。
Q3. 写 MCP server 推荐用什么语言?
看用例。业务逻辑与数据处理用 Python(官方 SDK 最成熟)。Web/前端集成用 TypeScript。要加进已有的 Java/Kotlin/Go 后端,就用对应语言的 SDK。第一次写,Python 最适合上手。
Q4. 通过 MCP 把内部 DB 开放给 AI,安全够吗?
取决于你的权限设计。如果 MCP server 是只读的,并且对查询参数做严格校验,那比让 AI 直接写原始 SQL 安全得多。反之,"让 AI 抛任意 SQL 的 MCP server"就很危险。生产环境里,审计日志和速率限制也是必须的。
Q5. MCP 和 OpenAI 的 Function Calling 是一回事吗?
层级不一样。Function Calling 是"AI 模型内部表达函数调用的格式",MCP 是"AI 与外部服务之间的通信协议"。MCP 跑在 Function Calling 之上。两者都搞懂,设计决策会清晰得多。
Q6. 作为个人开发者,MCP 现在值得花时间吗?
非常值得。两个原因。(1) 用 MCP 把自己的工作环境串起来,Claude Code / Cursor 的生产力能翻几倍(自家工具能从 AI 里调)。(2) "我能做 MCP"这件事,2026 年在企业项目报价单上是明确的加价项。学习成本回报率极高。
Q7. 学 MCP 的第一步是什么?
三步,30 分钟。(1) 装 Claude Desktop。(2) 把官方 filesystem MCP server 加进配置文件(复制粘贴就完事)。(3) 让 Claude "读这个文件夹里的 README"——它就会通过 MCP 读文件。一旦感受到它跑起来,自己写一个的心理门槛就会断崖式下降。