图片系AI生成

如果将百度“云+AI”看做一个大盘,当百度选择了模型开源加文心一言免费的策略,自然就将营收的担子向云业务倾斜了不少。

2月18日晚,百度发布2024年第四季度及全年财报,显示2024年总营收达1331亿元,归属百度核心的净利润达234亿元,同比增长21%。电话会介绍,智能云业务在四季度增长强劲,营收同比增长26%,经营利润率持续增长;2024年,智能云AI相关收入同比增长近3倍。

2024年的财务数据还没有百度开源+免费策略的影响,百度智能云前三季度的营收同比增长数据分别为11%、14%、12%,虽然第四季度是营收确认的时段,但是26%的增长也是超出了行业预期。

百度创始人、董事长兼CEO李彦宏在电话会上表示,云的强劲增长源自于市场对百度AI能力的广泛认可,“我们将持续向AI投入,以确保处于这一技术趋势的前沿。”

显然在李彦宏眼中,AI云本就是一体两面,结合开源+免费策略,百度也做好了“开源引流,云来挣钱”的打算。

开源或闭源,云都是受益方

云计算行业过往的经验已经证明,AI能够显著拉动云的收入,大模型的拉动又是其中最强的一股力量。

本次财报电话会上,百度智能云事业群总裁沈抖再一次提到,2024年与生成式人工智能相关的收入同比增长近两倍,这一增长得益于对文心一言和人工智能基础设施的需求不断上升,百度成功吸引了多样化的客户群体,并建立了强大的潜在业务渠道。

这建立在百度过往大模型未开源的基础上,而大模型开源,第一受益方就是云。近期,DeepSeek的R1和V3模型也接入了百度智能云的千帆平台,推理价格最低至DeepSeek官方定价的30%。在模型上线首日,就有超过1.5万家客户通过千帆平台进行模型调用。

虽然模型不收费,但是企业用户在调用大模型时,必然会使用到云上的其他资源,例如计算、存储、网络、数据库、中间件等一系列能力,这都是云业务所擅长的部分。

百度并不担心客户使用开源的大模型,而是怕客户不使用百度智能云,因此百度智能云的产品和定价策略,也随之做了优化。

“通过千帆大模型平台,我们为市场提供具有行业领先性价比的全面基础模型。我们推出了从旗舰版到轻量版的文心大模型系列,旨在满足各种不同的需求。除了文心大模型,我们还提供广泛的优质第三方基础模型,包括DeepSeek V3和R1模型。”沈抖表示。

“我们认为更多企业会将基础模型整合到从研发到生产的业务运营各个环节,从而推动API调用量的显著增长。”他说。

模型差异化降低,云底座重要性提高

所有头部云厂商都希望打造“AI+云”的飞轮效应,AI需求推动云业务增——云收入增加——更多资本投入AI研发——AI能力提升——吸引更多客户使用云服务,开源将更加考验云基础设施的能力。

沈抖也预计,人工智能云市场将迅速增长。一方面,大语言模型认知度提高,促使更多人深入思考如何利用模型来提升自身业务。另一方面,基础模型的性能将不断提升,成本会稳步下降,将进一步降低使用这些模型的门槛。

某种程度上,开源意味着大模型本身的粘性减弱,例如,所有云厂商都可以提供DeepSeek的相关服务,吸引客户的就不是DeepSeek的大模型,而是在哪能够更好的调优,以及如何获得更好的资源性价比。

“得益于百度的全栈人工智能能力和端到端优化,我们能够确保平台上托管的任何模型都具备最佳性能和稳定性,同时保持极具竞争力的价格。此外,我们还提供一整套用于微调模型和构建原生人工智能应用程序的工具,客户能够轻松制定满足自身特定需求的解决方案。”沈抖表示。

目前百度智能云千帆大模型平台不仅接入了各种型号的文心大模型,还提供国内外上百个主流大模型,并且为所有接入的模型提供后训练、SFT、数据标签和模型准备等工作。

据了解,本季度百度将统一GPU集群规模扩大了一倍,并实现99%的有效训练时间。百度智能云还成功点亮昆仑芯三代万卡集群,也是国内首个正式点亮的自研万卡集群,未来,将进一步点亮三万卡集群。

与此同时,百度预计人工智能云服务的支出将会增加,百度提到,在确保严格的投资回报率管理和有效控制资本支出损失的同时,有两个关键优先事项驱动决策,那强化技术领先地位,以及加速人工智能产品和人工智能云服务在不同行业的应用。本文首发于钛媒体APP,作者 | 张帅,编辑 | 盖虹达)

ad1 webp
ad2 webp
ad1 webp
ad2 webp