智东西
作者 徐豫
编辑 漠影
DeepSeek后时代,“开源”和“免费”,力压“参数量”和“模型架构”之争,成为大模型圈新的风暴中心。
智东西2月15日报道,不到一个月内,百度、DeepSeek、OpenAI、谷歌、xAI等主流大模型厂商们密集官宣,旗下闭源高端AI模型将转向开源,而主流AI产品计划免费向用户开放。这不仅是大模型竞赛进入新一轮白热化阶段的信号,也是AI技术走近寻常百姓家的关键节点。
百度和OpenAI两家更是战况焦灼,前后脚剧透下一代新模型、深度搜索功能、生成式AI工具免费可用,以及开源计划。
2月14日,百度宣布将在接下来的几个月内,陆续推出文心大模型4.5系列,并且新一代文心大模型将自6月30日起开源。这也是百度旗下大模型首次开源。与此同时,有市场消息称,百度今年还会发布文心大模型的5.0系列。
再往前一天,百度官宣,自4月1日起,文心一言将全面免费,用户可以通过PC端和APP端,免费使用最新款的文心系列模型。同日,OpenAI CEO奥尔特曼在X上发布长文,官宣计划在几周,或者几个月内,发布新一代模型GPT-4.5(内部代号“Orion”)和GPT-5系统。
奥尔特曼还在文中写道,其ChatGPT的免费套餐,也将包括对GPT-5的无限制聊天访问权限。换句话说,用户不仅可以免费使用ChatGPT的搜索功能,后续还可以免费用上OpenAI最先进的模型。
本月早些时候,谷歌也宣布了将开放其最新的Gemini 2.0系列模型。马斯克则2月14日接受采访时谈道,计划将在一到两周内推出新一代AI模型Grok 3,性能或将超越GPT系列,并且很大概率延续开源策略。可以说,上述几家大模型厂商都卯足了劲,准备在这个节骨眼大干一场,谁也没有打算让着谁。
另外,百度和OpenAI均计划逐步开放深度检索相关功能。
OpenAI方面称,深度研究功能起初会提供每月2次的免费使用机会、每月10次的Plus用户使用机会,而所有Pro用户均可在移动端和桌面端APP上使用该功能。百度文心一言的深度搜索功能现已上线PC端,从4月1日起即可免费使用,APP端也即将上线。
时至今日,大模型能够走向免费、开源、开放,背后离不开技术突破所带来的训练和推理成本下降。
2月11日,百度创始人李彦宏在阿联酋迪拜出席“世界政府峰会”上时分享道,“在过去,当我们谈论摩尔定律时,每18个月,性能水平或价格都会减半。但今天,当我们谈论大型语言模型时,可以说每12个月推理成本就降低90%以上。”
OpenAI CEO奥尔特曼近日也在博客上表达了类似观点。据他观察,AI价格的下降显著刺激了AI使用量的增长。奥尔特曼称,AI使用成本正大幅下降,每年比前一年便宜约9成,这也有助于AI普及更多用户。
用大模型这件事儿越来越便宜,不仅让各中小型企业本地化部署大模型的价格门槛更低,还能开发出更适用的大模型衍生品;也有助于普罗大众把用AI产品变得日常化,动手搭建个性化的AI工具、AI产品、AI智能体,最终共同为整个AI生态持续注入活力。
那么,大模型凭什么敢免费开放,究竟如何提供高性价比的AI算力,先进模型能力到底强在哪?通过拆解百度多项大模型开发经验,我们找到了自研芯片、数据中心和AI计算平台,以及推理技术架构深度优化这4大答案。
一、文心系列打头阵,深度搜索功能即将全量上线
时隔大半年,百度文心大模型即将连续刷级。据百度方面最新消息,文心大模型4.5系列将在未来几个月内陆续推出。另据近期市场消息,文心大模型5.0系列也将在年内发布,时间可能是今年下半年。
2023年10月,百度发布了文心大模型4.0;去年4月,文心大模型4.0工具版上线;去年6月,4.0系列中性能较强的文心大模型4.0 Turbo正式推向市场。结合4.0系列的发布节奏来看,或许百度已用实际行动印证了李彦宏所说的“创新的本质”。在他看来,创新的本质基本遵循“如果你能将成本降低一定数量、一定百分比,那么这意味着你的生产率提高了相同的百分比”。
有知情人士剧透,文心大模型4.5和5.0,将在多模态能力上有明显提升。OpenAI则选择将o3推理模型等多种AI技术和能力,集成到即将发布的GPT-5 AI系统中。
同时,文心大模型的视觉智能能力也是其一大特色。基于此,百度或将代替OpenAI和谷歌,接管国行版iPhone中Apple Intelligence的视觉智能。据外媒2月14日报道,百度将负责承担“国行版”Apple Intelligence所提供的图像识别、检索等功能。
目前,百度自研的iRAG(image-based Retrieval-Augmented Generation,基于图像的检索增强生成技术)结合了检索增强(RAG)技术和视觉智能,可以检索、比对、参考百度搜索引擎的大量图片资源,然后通过文本生成质量更高、元素更逼真的AI图像,减少传统文生图技术易出现的“幻觉”现象。
实测表明,具备iRAG能力的文心大模型4.0,所生成的人物形象及其动作都更加贴合文字描述和物理逻辑。此外,文心大模型4.0支持一次生成多张AI图像。
▲左图由文心大模型4.0生成,右图由文心大模型3.5生成(图源:百度)
而单从检索增强方面来看,百度的生成式AI工具文心一言,比OpenAI的AI聊天助手ChatGPT,在联网检索准确性、内容描述的细致程度上,都更胜一筹。
先抛给它们一个有唯一解的问题:“2025年中国的法定假日有哪些?”
文心一言发现了今年是中秋节与国庆节连休,但ChatGPT弄错了中秋节的日期,并且没有发现连休假期的特殊情况。
再抛给它们一个开放式的问题:“哪吒2中,在做藕粉的过程中,出现了哪些让哪吒感觉不适的操作?”
ChatGPT联网检索后生成的答案有偏离影片事实的部分,文心一言则更加准确地描述出了影片细节内容。
今年内,文心一言还有望胜任一些更专业化、行业门槛更高的内容。2月13日,百度官宣文心一言网页版上线了深度搜索功能,App端也即将同步升级。
基于该深度搜索功能,文心一言可以应对民生、创业、经济分析类等专业咨询类的问题,内容回复预期达到专家级水平,在一定程度上突破了过去查询渠道较为小众、专业领域解析难度大等AI搜索瓶颈。
除了增强搜索能力,百度方面透露文心一言的思考、规划和反思能力都进一步提升,从而能够更“聪明”地使用多种工具解决复杂任务。
例如,遇到一些不能简单处理的问题,文心一言可以先“阅读”、“理解”用户上传的文档,再搜索、分析相关内容,最后综合考虑私域资源和公域资源信息,得出结果。
二、“芯”动力撑腰,大幅提升模型训练效率
当前,大模型及其产品性能增强的同时,还要控制、降低开发和使用成本,以实现向用户开源并免费开放。这背后离不开整体算力架构的提效优化。
首先是算力“油门”,即芯片。
百度自研的AI芯片“昆仑芯”,专注于大模型训练和推理优化,驱动一系列文心大模型缩短训练周期,并降低开发成本。
其现已升级至第三代昆仑芯P800。该芯片采用的是XPU架构(eXtensible Processing Unit,可扩展处理单元),这种处理器架构比传统的CPU(中央处理单元)和GPU(图形处理单元)灵活度更高,可以根据具体需求和应用场景来扩展和定制,从而减少算力的浪费,并提高计算任务的处理效率。
同时,昆仑芯P800的显存规格比同类主流GPU高出20%到50%,可以更好地适配MoE(Mixture of Experts,混合专家模型)架构,节省算力消耗,来整体降低开发成本。
该芯片还支持8-bit量化技术,占用更少的显存,也能保持较高的推理精度。这意味着千帆DeepSeek一体机单机8卡,也能带动满血版DeepSeek等参数量为671B的大模型。
其次是算力“油箱”,即数据中心。
本月,百度智能云宣布完成昆仑芯三代万卡集群的搭建,并计划进一步将万卡规模拓展至三万卡。
这一自研万卡集群可形成规模效应,通过多任务并行处理、弹性算力管理等方式减少算力闲置的情况,以提高计算资源利用率,进而降低模型训练的整体算力成本。
未来,其规模如果按计划从万卡扩大至三万卡,规模效应加剧,百度的云计算服务整体成本或将进一步降低。
再者是算力“车底座”,即AI计算平台。
百舸平台是百度智能云推出的一个高性能AI计算平台,主要用于支持大规模深度学习。其通过提升带宽有效性、减少散热能耗、优化模型训练效率等方式,来降低模型训练整体成本。
据百度方面最新数据,百舸4.0的带宽有效性已提升至90%以上;训练主流开源模型的集群MFU(通常用MFU来表示GPU的有效利用率)提升至58%;模型训练故障恢复时间从小时级降低到分钟级,集群有效训练率达到98%。
三、多平台创新,拉动模型推理成本打骨折
训练和推理都是模型开发及其应用的关键环节,因此单单降低模型训练的开销还不够,模型推理的成本,也需要通过优化推理技术来进一步控制。
截至发稿,开源社区Hugging Face上点赞数排行第一,是国产模型DeepSeek-R1。DeepSeek-R1是基于DeepSeek V3基础模型训练的高性能推理模型,专注于提升推理能力。
随着主流大模型厂商相继接入、蒸馏DeepSeek-R1和DeepSeek V3模型,并且计划开源自家先进模型,这一格局或将被改写。
不过,调用DeepSeek-R1和DeepSeek V3的价格却有高有低。
目前来看,包括DeepSeek自家平台在内,调用DeepSeek-R1和DeepSeek V3每百万Tokens的单价,定价最便宜的是百度智能云千帆大模型平台。其R1的调用价格为DeepSeek官方刊例价的半价,V3的调用价格是DeepSeek官方刊例价的3折。
总的来说,百度方面主要通过优化以下3大板块的推理技术,来降低推理成本。
1、百度智能云千帆大模型平台针对DeepSeek模型MLA结构(Multi-Level Attention,多级注意力)深度优化,一方面同步调用计算、通信和内存资源进行推理,另一方面使用Prefill/Decode分离式推理架构在推理前先预处理数据,从而使模型满足低延迟标准的同时,大幅提升了吞吐量,并降低了推理成本。
2、百度智能云千帆大模型平台还通过增强系统容错能力、减少多轮对话等场景中的重复计算、增强安全防护栏来整体降低推理成本。
3、有业内人士分析称,百度飞桨深度学习框架,以及百度飞桨自研的并行推理、量化推理等大模型推理相关技术,可以迁移应用于文心一言等百度旗下的AI工具,从而降低这些AI工具的推理成本。
结语:国内外大模型再掘AI增量,智能化加速平民化
作为首批免费开放AI模型的大模型厂商,百度与OpenAI等竞争对手一起,拉开大模型新一轮价格战的序幕。但这一次,“省成本”不仅仅是为了大模型厂商自身的经营,更多是把重心放在了AI技术推广上。
而百度在芯片、模型训练、模型应用方面持续探索,通过技术创新,让AI逐步走向人人可用、人人用得起、人人用得好的阶段。
未来,无论企业或者个人是否从事AI行业,都有机会在日常生活中收获AI技术、AI工具、AI模型的智能化体验,继而作为一份子加入AI浪潮,形成AI硬件开发商、大模型厂商、云服务商、个人等主体共促AI生态开放发展的局面。