图片系AI生成

MCP成为AI领域交互的事实标准,只用了几个月。

4月25日,在Create2025百度AI开发者大会,百度创始人李彦宏发布了两大模型文心大模型4.5 Turbo和深度思考模型X1 Turbo,多款AI应用,并宣布将帮助开发者全面拥抱MCP。

MCP(Model Context Protocol,模型上下文协议)是由 Anthropic 于2024年11月推出的开放标准,旨在构建大模型与数据源之间的安全双向链接,解决社区中工具实现风格不统一、难以跨模型共享的问题。

目前,包括百度在内,国内外支持MCP的厂商包括OpenAI、Google、微软、亚马逊、Anthropic、阿里、腾讯等,更多大模型生态链厂商也参与其中,发布自己的MCP服务,可以说MCP已经成为类似“AI界HTTP”的事实标准。

本次大会,百度智能云正式发布了国内首个企业级MCP服务,第一批已经有超过1000个MCP Servers 供企业及开发者选择。另外,开发者也可以在千帆上开发自己的MCP Server,并发布到MCP广场,支持免费托管,而且百度搜索也会索引这些MCP Server,让它们被更多的开发者引用。

尽管都做MCP,不同厂商的思路也有所不同,百度智能云走的是企业级路线,同时前期尽可能让更多开发者参与进来,先丰富MCP广场的数量,结合百度搜索等独有入口给予扶持流量,壮大自己的MCP生态。

为什么需要MCP

MCP的诞生有其必然性,此前大模型的应用集中在类Chatbot场景,在更为广泛的企业级场景,大模型应用落地需要大量依靠开发者的定制化开发,虽然百度智能云等厂商提供了大模型工具链,简化了部分开发工作,但总体上,大模型应用依然是一个苦活和累活。

2025年,被公认为AI Agent元年,其典型特征就是大模型不仅会思考,也要自己能够规划和执行,大模型是“大脑”,要完成某个具体任务,需要为大模型配上“四肢”、“五感”等能力。

而如果每一个AI应用还用定制化开发的方式,一个AI应用需要对接N个工具,M个工具就需要“M×N”的集成复杂度,MCP的价值就在于将大模型和工具的交互定为标准化协议,所有厂商用同一个标准,如此大模型应用开发就变成了M+N,大大减少了复杂程度。

百度百度集团执行副总裁、百度智能云事业群总裁沈抖表示,“大模型的应用,绝大多数情况下,不是简单的调用一下大模型。而是需要对接各种组件、工具,需要做各种精细地编排,很多时候,为了进一步提升效果,还需要对模型做调整,定制专精模型。”


他补充道,“特别是搭建企业级业务,还得考虑计算性能、稳定性、扩展性、安全性。所以,一个应用的落地,本质上是一个‘系统’的构建过程。”

企业级应用往往比消费级的要求更高,容错度更低,一位大模型行业人士表示,2024年分析了各个行业各个项目后发现,项目90%的时间都耗在了应用开发上,因为模型是标准的,而应用是千变万化的。

好在这些工作也有共性,总结下来无非就是四件事:补充专业知识、编排业务流程、扩展智能工具、集成企业系统,如果这些事都沉淀下来,封装成平台,实现开箱即用,平台可以用RAG把老专家的经验装进模型,用工作流实现搭积木式业务编排,用智能体+MCP唤起企业的旧系统和资产。

MCP的出现,正符合行业对大模型应用落地的集中期望。

补全企业级Agent的缺口

正如沈抖所言,大模型落地亟需从底层算力到应用的全栈、系统级支撑,既需高性能硬件与集群优化,也需灵活的开发工具链与场景化解决方案。

百度智能云的系统级能力涵盖算力层,例如本次公布的三万卡自研昆仑芯集群,升级的百舸GPU算力平台;以及模型开发层,千帆平台上有超过100多个模型,不仅包括文心4.5Turbo、文心X1 Turbo等百度自研模型,还包括DeepSeek、Ilama、Vidu等第三方模型。

在应用开发层,百度智能云提供了千帆企业级Agent和MCP服务,让Agent具备解决复杂问题的能力,完善的模型开发工具链,支持深度思考模型、多模态模型的定制、精调。

Agent元年,应用开发层也是百度智能云当下着重更新的部分,本次大会千帆平台全面升级了企业级Agent开发工具链,发布了全新推理式智能体——智能体Pro,从快问快答升级到深思熟虑,并且支持每个企业定制自己的专属智能体。


以污水宝为例,基于千帆Agentic RAG能力,让Agent结合企业自己的私域数据和企业知识库,可以基于对任务的理解去制定检索策略,大幅降低模型幻觉。

同时,智能体Pro也支持Deep Research深度研究模式,能让Agent自主完成复杂任务的步骤规划、信息筛选和整理,支持像人一样操控电脑浏览网页(computer use)进行探索式知识收集,也支持像人一样使用多种工具绘制图标、撰写,生成结构清晰、内容丰富的专业报告。

MCP的出现,帮助开发者和企业在开发Agent时,能够更好地利用行业数据和工具,补全了企业级Agent的缺口。

开发者要拥抱MCP有两种路径,一是把自己的资源、数据、能力通过MCP的形式提供出来,让更多的AI应用来使用。二是自己在开发AI应用的时候充分利用已有的MCP Server资源,这样既减少了开发量,又大幅提升能力。

百度智能云的千帆平台是第一家支持MCP的大模型平台。在MCP之前,大模型及各种工具散落各地,规范不同、互不相通。在MCP之后,大模型的工具互联互通,生态将空前繁荣。

MCP最终是生态竞争

MCP或者说大模型,本质上是平台和生态的竞争。在新技术爆发的早期,各种技术范式并不成熟,往往需要端到端的优化实现较好的性能,这也是当前大模型应用落地依赖巨头厂商的原因。

对于巨头厂商来说,比拼的不是长板,而是在没有短板的情况下,不仅要建好自己的平台能力,也要营造一个繁荣的生态,如此才能吸引更多厂商参与到自己的生态,以一个大模型生态对阵另一个大模型生态。

具体到MCP领域,百度大致贯彻了三步走策略。

第一步是发布自己的MCP Server,百度率先发布了全球首个电商交易MCP和搜索MCP等,开发者可在百度智能云千帆平台上的“万能智能体助手”中添加百度AI搜索和百度优选的MCP Server,即可让智能体完成从信息查询、商品推荐到直接下单购买的全流程闭环。这是国内首个支持电商交易的MCP服务与顶级搜索MCP能力的结合。

第二步是支持更多企业开发和调用更多的MCP服务,百度智能云千帆平台正式发布了国内首个企业级MCP服务,首批上线超过1000个MCP Server供企业及开发者选用。同时,开发者也可以在千帆上开发自己的MCP Server,发布到MCP广场,享受免费托管,并能被百度搜索索引,获得更多曝光和调用机会。

第三步是AI开放计划,百度搜索开放平台发布“AI开放计划”(sai.baidu.com),旨在通过多样的内容和服务分发机制,为智能体、H5、小程序、独立App等各种形态的应用开发者提供流量入口和商业化变现的途径,同时也让用户能便捷地发现和使用最新、最全的AI服务。

更多的企业、开发者,把自己的能力以MCP的方式开放出来,在实现商业价值的同时,也壮大了大模型厂商的生态体系,“剩者为王”,大模型竞争的终局不一定是技术更强的厂商,但一定是生态更繁荣的厂商。(本文首发于钛媒体APP,作者 | 张帅,编辑 | 盖虹达)

ad1 webp
ad2 webp
ad1 webp
ad2 webp