你有没有发现一个奇怪的现象?
ChatGPT 有自己的插件系统,Claude 有自己的工具调用,Gemini 有自己的 Extensions,Copilot 有自己的技能包。每个 AI 产品都在造自己的轮子,互不兼容。
这就像 2012 年的手机充电线——苹果用 Lightning,三星用 Micro-USB,诺基亚用圆口,索尼用扁口。你出门得带四根线。
直到 USB-C 出现。
AI 工具生态今天正在经历同样的时刻。而扮演"USB-C"角色的,是一个叫 MCP 的东西。
MCP 是什么?
MCP,全称 Model Context Protocol(模型上下文协议),是 Anthropic 在 2024 年 11 月发布的一个开放标准。
它的核心理念只有一句话:标准化 AI 与外部工具之间的通信方式。
在 MCP 之前,如果你想让 AI 访问你的数据库,你得为 ChatGPT 写一套插件,为 Claude 写一套工具,为 Gemini 再写一套。三份代码,三种格式,三套维护成本。
有了 MCP,你只需要写一个 MCP Server,所有支持 MCP 的 AI 平台都能直接用。
一次开发,处处运行。这不是 Java 的口号吗?是的,MCP 想在 AI 工具层实现同样的事。
三个角色,一张图说清
MCP 的架构很简洁,只有三个角色:
| 角色 | 是什么 | 类比 |
|---|---|---|
| Host | AI 应用本身(Claude、ChatGPT、VS Code) | 你的笔记本电脑 |
| Client | 连接器,负责协议通信 | USB-C 线缆 |
| Server | 工具提供方(数据库、GitHub、搜索引擎) | 外接显示器、硬盘、键盘 |
Host 通过 Client 连接 Server。Client 负责"翻译"——把 AI 的请求翻译成工具能听懂的格式,再把工具的回复翻译回来。
就像 USB-C 不管你接的是显示器还是硬盘,都用同一根线、同一个协议。
为什么全行业都在用?
MCP 不是 Anthropic 的独角戏。过去一年,整个 AI 行业都在往这个标准上靠。
2025 年 3 月,OpenAI 全面拥抱 MCP。Agents SDK 原生支持 MCP Server,Responses API 可以调用 MCP 工具,ChatGPT 桌面端开放了 MCP 连接能力。OpenAI 开发者团队直接在社交媒体上官宣:“MCP + OpenAI Agents SDK,现在可以了。”
2025 年中,Microsoft 跟进。Azure MCP Server 上线,支持通过自然语言管理 Azure 资源。Azure DevOps MCP Server 从预览版进入正式版。VS Code、GitHub Copilot agent mode 全部支持 MCP。
2025 年 12 月,Google 发布全托管的远程 MCP Server,覆盖 BigQuery、Cloud Run、Cloud Storage、Maps 等一系列 Google Cloud 服务。Gemini CLI 原生支持 MCP。
同月,Anthropic 做了一个重要决定:把 MCP 捐给了 Linux Foundation。
具体来说,MCP 成为新成立的 Agentic AI Foundation(AAIF) 的创始项目。这个基金会由 Anthropic、Block(Square 母公司)和 OpenAI 联合创建,Google、Microsoft、AWS、Cloudflare、Bloomberg 提供支持。
当一个公司把自己发明的标准捐给中立基金会,通常意味着一件事:这个标准已经大到不该由任何一家公司控制了。
截至目前,全球已有超过 10,000 个 已发布的 MCP Server,覆盖从开发者工具到财富 500 强企业部署。
MCP 能做什么?实际案例
说了这么多"标准"“协议”,MCP 到底能帮你干什么?
连接数据库——让 AI 直接查询你的 PostgreSQL、MySQL、BigQuery。不用手动复制数据,AI 自己写 SQL、自己跑、自己总结结果。
连接 GitHub——AI 读取代码仓库,理解项目结构,创建 PR,review 代码。不是聊天式的"帮我看看这段代码",而是直接操作你的仓库。
连接搜索引擎——AI 实时搜索网页信息,不再局限于训练数据的截止日期。
连接本地文件系统——AI 读写你电脑上的文件。比如"把 Downloads 里所有 PDF 的标题整理成一个表格"。
连接 Slack / Discord——AI 发消息到你的团队频道,或者监听频道消息自动回复。
连接云服务——通过 Azure MCP Server,用自然语言管理你的云资源。“帮我创建一个新的 Storage Account”,AI 直接执行。
举一个我自己在用的例子:Claude Code(Anthropic 的终端 AI 代理)内置了 MCP 支持。我同时连接了 Context7(实时查询任何开源库的最新文档)、GitHub、和本地文件系统。当我说"用最新的 Next.js API 重构这个页面",它会先通过 Context7 查最新文档,再读本地代码,再写出新代码——整个过程不需要我手动查文档。
MCP vs 之前的方案
| 对比项 | OpenAI Functions/Plugins | LangChain Tools | MCP |
|---|---|---|---|
| 标准化程度 | OpenAI 专属格式 | 框架专属 | 开放标准,已捐给 Linux Foundation |
| 跨平台 | 仅 OpenAI 生态 | 部分(Python 为主) | 全平台(Claude、ChatGPT、Gemini、Copilot) |
| 语言支持 | Python/Node | Python 为主 | TypeScript、Python、Java、Go、Rust、C# |
| 社区生态 | GPT Store | LangChain Hub | 10,000+ MCP Server |
| 治理方式 | 公司控制 | 社区驱动 | Linux Foundation 中立治理 |
| 传输方式 | HTTP API | 函数调用 | stdio / SSE / Streamable HTTP |
关键区别在于:OpenAI Plugins 和 LangChain Tools 是产品级别的集成方案,而 MCP 是协议级别的标准。前者像各品牌的私有充电线,后者像 USB-C 规范本身。
普通用户怎么用?
你不需要写代码就能用上 MCP。
Claude Desktop:打开设置 → 找到 MCP Servers → 添加你想连接的服务。比如添加一个本地文件系统 Server,Claude 就能直接操作你电脑上的文件。
ChatGPT Desktop:开启 Developer Mode 后,在设置中配置 MCP Server。目前支持 Pro、Plus、Business、Enterprise 和 Education 账户。
VS Code / Cursor:在配置文件中添加 MCP Server 信息,AI 编程助手就能调用对应工具。
推荐几个值得尝试的 MCP Server:
| Server | 功能 | 适合谁 |
|---|---|---|
| filesystem | 读写本地文件 | 所有人 |
| Context7 | 查询任意开源库最新文档 | 开发者 |
| GitHub | 操作 Git 仓库 | 开发者 |
| Brave Search | 实时网页搜索 | 所有人 |
| PostgreSQL | 查询数据库 | 数据分析师 |
开发者怎么上手?
如果你是开发者,写一个 MCP Server 比你想象的简单。
官方 TypeScript SDK:@modelcontextprotocol/sdk
npm install @modelcontextprotocol/sdk zod
一个最基本的 MCP Server,大概长这样:
import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
import { z } from "zod";
const server = new McpServer({ name: "my-server", version: "1.0.0" });
server.tool("greet", { name: z.string() }, async ({ name }) => ({
content: [{ type: "text", text: `Hello, ${name}!` }],
}));
const transport = new StdioServerTransport();
await server.connect(transport);
这十来行代码就是一个完整的 MCP Server。它暴露了一个 greet 工具,任何 MCP Client(Claude、ChatGPT、Gemini CLI)都能调用它。
官方文档:modelcontextprotocol.io TypeScript SDK:github.com/modelcontextprotocol/typescript-sdk
为什么 MCP 可能是 AI 时代最重要的标准?
我们往回看一层。
过去两年,AI 模型的能力突飞猛进——更聪明、更快、更便宜。但有一个瓶颈始终没解决:AI 只能靠"嘴"说,不能"动手"做。
你让 GPT-4 帮你写一封邮件,它写得很好,但你得自己复制粘贴到邮箱里发出去。你让 Claude 帮你分析数据,它分析得很好,但你得自己把数据粘贴给它。
MCP 改变的就是这件事。它把"AI 能做什么"从模型能力延伸到了工具能力。
当 AI 能直接连接你的邮箱、日历、数据库、代码仓库、云服务……它就不再是一个聊天机器人,而是一个真正的 Agent——能自主规划、调用工具、完成任务的智能体。
如果 HTTP 是互联网的基础协议,那 MCP 很可能成为 AI Agent 时代的基础协议。
这不是预测,这是正在发生的事实。OpenAI、Google、Microsoft、AWS、Cloudflare 用行动投了票。Linux Foundation 用组织架构投了票。超过一万个 MCP Server 用代码投了票。
AI 的 USB-C 时代,已经开始了。
本文由 AIEII 编辑部撰写。如果你觉得这篇文章有价值,欢迎分享给你的朋友。