“《2025中国人工智能计算力发展评估报告》已经连续发布七年,每次基本都是我和刘总一起来解读报告,今年也不例外。”2月13日,在该报告发布会上国际数据公司(IDC)中国副总裁周震刚表示。当天,周震刚和浪潮信息高级副总裁刘军共同发布了这一报告。《报告》分为“全球及中国人工智能发展概述”“人工智能算力及应用”“人工智能算力发展评估”“IDC建议”四个章节,并包含八个核心观点。

《报告》的第一个核心观点是:算法是驱动人工智能发展的核心引擎,决定了应用的智能上限,也牵引着算力的发展。比如,DeepSeek R1模型的算法创新,降低了训练阶段和推理阶段的算力消耗,其训练算力只有Llama3的1/10,推理阶段的缓存数据量降低50倍之多,为在算力约束条件下进行算法创新开辟了全新思路,也让DeepSeek只用7天就实现活跃用户数破亿。

《报告》的第二个核心观点是:规模法则(Scaling law)在当前的人工智能发展中仍然占主导地位,并在继续推高人工智能算力需求。周震刚解读称:“只能说DeepSeek打破了Scaling Law公式,但是并没有打破Scaling Law法则。因为Scaling Law指的是虚拟模型参数和训练所需算力成正比,过去这一比例可能是1:1,现在这一比例可能是1:10。但是,如果参数更大,需要的算力肯定更多。因此,Scaling Law仍然会存在,而且仍将在很长一段时间内继续主导人工智能技术架构的发展。”刘军则补充称:“DeepSeek通过软硬件协同优化和算法创新造出一个超出所有人期待的大模型,我认为这是对所有中国大模型玩家的一种激励。2024年业内曾出现Scaling Law撞墙的观点,当时好多大模型玩家都说不再继续做预训练。而在今天的话语环境下这一趋势将会扭转,大家会继续充满热情地再次投入到算法训练的竞争中。”

《报告》的第三个核心观点是:中国智能算力发展水平增速高于预期。DeepSeek算法的极致革新,将激励人们针对特定算力硬件系统去开展算法和算力的协同优化,借此实现更好的模型训练,因此业界会更加重视训练人工智能算力架构。这也会让人们从原来单纯地追求卡的数量,变成通过追求更高效的系统来支撑模型训练,进而会激励人们持续地投入算力。

《报告》的第四个核心观点是:大模型的开源趋势正在显著增强,成为加速人工智能普惠、降本增效的重要力量。当DeepSeek开源之后,外界基于DeepSeek去做微调和蒸馏的模型版本越来越多,这必将给算力服务带来巨大推动。过去人们使用算力中心做训练,但是发现再怎么训练也不如文心一言和通义。这时,人们就会基于文心一言和通义去做推理,或者直接使用它们的模型,更或者直接在线去购买Token。由于DeepSeek的模型已经开源,因此可以建立基于行业的知识库,也可以通过微调去做专业大模型,同时所需要的算力也比较少。刘军认为,DeepSeek让技术扩散一下子得到加速,DeepSeek的开源不亚于ChatGPT所带来的作用,ChatGPT让大家认识到原来生成式人工智能可以这么用,而DeepSeek的开源则让几乎所有人都可以使用同一水平的生成式人工智能产品,所以DeepSeek的开源对于生成式人工智能发展所带来的作用远远超过人们的想象范畴。刘军表示:“这种非常高质量模型的开源,使得我们每一个人、每一个企业、每一个国家都会变成一个创新的主体,充分发挥与各种场景结合的主动能动性。它也打破了一种认知门槛,让我们意识到万众创新才是人工智能时代的创新模式。”同时,DeepSeek的重要性不是说中国在人工智能领域走到其他国家前面,而是这种水平的大模型开源能够普惠全人类,能够让更多以前根本迈不进大模型门槛的国家和企业也能用到高水平的人工智能产品。

《报告》的第五个核心观点是:“扩容”与“提效”并行推动人工智能应用落地。DeepSeek的出圈,让全世界都看到即便可能面临GPU不足的情况,但是通过工程手段和算法手段的优化,依然可以让少量GPU尽最大程度发挥作用。比如,DeepSeek的V3模型使用动态稀疏的算法来大幅降低算力消耗,从而以“四两拨千斤”的方法让模型性能不亚于那些通过“狂堆算力”打造出来的模型,同时这也引发了整个计算架构的变革。为了应对生成式人工智能和大模型应用扩展带来的数据、算力、模型、人才、成本等多方面挑战,尤其是面对算力基础设施的瓶颈,相关企业应该采取“扩容”与“提效”并行策略,通过提升算力供给能力和质量,优化基础设施架构,增强数据支持和模型效率,系统性地提高算力利用率。

《报告》的第六个核心观点是:人工智能算力服务市场正在蓬勃发展,算力供给模式也在不断创新。IDC数据显示,2024年中国智算服务市场整体规模达到50亿美元,2025年将增至79.5亿美元,2023-2028年五年年复合增长率达57.3%。生成式人工智能将推动企业更多地使用人工智能就绪数据中心来托管设施和服务器集群,从而达到缩短部署时间和降低资本成本的目的。

《报告》的第七个核心观点是:人工智能算力发展将坚持绿色可持续原则,液冷技术成为关注重点。能耗对于整个数据中心基础架构的影响越来越重要,业内也有“算力的尽头是电力”的说法。大模型训练如果真的触达十万张卡的级别,将给能耗带来非常严峻的挑战。因此,液冷技术等绿色人工智能数据中心的技术也将且必须得到进一步发展。

《报告》的第八个核心观点是:人工智能行业渗透度正在持续增加,不同城市走出了各具特色的发展路径。在2024年中国人工智能城市排行榜中,北京和杭州依然稳居前两位。北京聚集了大批大模型企业,凭借大量人才、成熟的企业和有力的政策扶持,持续位居首位;杭州早在2021年就提出要成为具有全球影响力的人工智能头雁城市,在AI领域持续深度求索,保持第二位。而上海凭借其国际化优势和政策支持,在推动人工智能世界级产业集群建设等方面表现出色,排名从2023年的第四位提升至第三位。周震刚解释称,北京从政策扶持、芯片产商、应用厂商到服务商都有很丰富的资源,北京也聚集了一些大模型企业,像百度和字节在这方面的投入都很高,同时北京也在扶植摩尔线程、天数智芯等芯片厂商,所以仍然把它排在第一位。第二位是杭州这也不出乎意外,本次评估是在DeepSeek R1发布之前做的。事实上,对于杭州来说无论是领头羊企业阿里对于千问模型的投资以及千问模型的开源,再加上DeepSeek的推动,整个杭州无论是从算力投资还是算法优化都处于靠前位置。上海重新回到前三名,是考虑到上海做了本土芯片厂商的扶持,也做了一些人工智能结合生物科技、人工智能结合物流的算法和应用场景。与此同时,特斯拉落户上海之后,其也做了一些支持工作。



开源的DeepSeek,将算力门槛一举打下

谈及大模型的落地,周震刚表示DeepSeek所引起的浪潮大大促进了人工智能的落地。目前,就连微信这样的国民级应用和百度搜索都已经宣布接入DeepSeek。过去,人工智能之所以迟迟不能落地就是因为成本太高。无论是企业自己从头去训练模型,还是企业获取外部大模型的API以及调用Token,整个访问成本都非常高。而DeepSeek的Token价格还不到ChatGPT的10%。在DeepSeek开源以后,任何一个企业都可以部署DeepSeek的大模型,从而能够打造一个专属于自己的私有平台,进而帮助更多用户获取高水平的模型,最终能够更好地基于模型做开发。周震刚举例称:“过去要想做同等水平的模型只能去找OpenAI。找国内的基本上都差一点而且国内成本也不低。但是,现在可以免费获取DeepSeek 满血671B的模型,只需搭建一个平台就能让它跑起来,成本大约是大几百万美元,很多企业都能负担得起。”Comment by 天鹅湖的迷迭香: 这句话来自于采访速记,可以的话请帮忙核对下

而无论是对于单点能力和横向扩展能力的计算架构优化,还是对于从存储到网络的数据中心优化,在DeepSeek出圈之后都会得到一定变革。对于大模型的普及性落地来说,眼下这个时间点是一个非常重要的时间点。目前,已经有许多企业开始尝试基于DeepSeek去做在线版本和本地部署版本。比如,目前一些平台已经引入了低代码工具。可以说,一个普惠化的人工智能发展态势正在招手。未来我们会看到基础大模型仍然会普遍存在,并且可能会面向不同行业做优化,从而出现更多的专业模型和行业模型。

另外,DeepSeek的火热让似乎大家忘了除了对话式文本模型以外还有多模态大模型的存在。目前在Hugging Face上,腾讯混元视频生成的模型也已经开源,因此面向图片模型和视频模型的发展也是值得关注的方向。正如刘军所言:“DeepSeek的R1并非就能feed all,一个模型不可能feed all,一定多个模型来共同解决世界的问题。但是,DeepSeek将会激发人们的创新活力,因此会有更多人离开战场重新回来。”



浪潮信息正抓紧开发“源”3.0大模型

从2024年开始,混合专家模型(‌MOE,Mixed Expert Models)框架开始得到全球范围的广泛采纳。DeepSeek从V2模型开始使用MoE,浪潮信息的源2.0-M32模型也使用了MoE。其技术本质在于,在基于Dense架构的模型之中Dense是一整个参数。当基于这种模型进行演化,从而训练一个五千亿参数甚至一万亿参数的模型时,所需消耗的算力、所需花费的时间、所需喂给模型的数据量,客观来说在当前的技术条件下根本无法实现。刘军表示他和团队曾做过一个评估,要想高质量地训练一个万亿参数Dense模型,必须使用20万张卡开展为期一年的训练,这很明显并不符合产业现状,因此大家不约而同转向探索通过MoE的方式,以更高效的算力打造更高质量的模型,其中就包括DeepSeek的模型。这带来的启发便是:不要单纯地追求算力,也不要单纯地追求模型参数,而是要思考如何用更少算力达成更高性能。

刘军表示:“看到DeepSeek的成功我们非常高兴,因为大家走的是殊途同归的道路。可能大家的走路方法不一样,但是最终都是要实现模算效率提升的目标。”他继续说道:“另外,我们也仔细阅读了DeepSeek的技术文章,里面好多工作跟我们在源3.0下一个版本上面要做的工作是异曲同工和不谋而合的。目前我们正在加紧开发源3.0,我相信这也是一个非常好的模型。”

刘军继续说道,DeepSeek给大模型带来的普及化和快速扩散,将会实质性地带动算力需求的长期增长,这对于人工智能服务器来说是一个利好因素。 基于此,浪潮信息已经正式推出元脑R1推理服务器,通过系统创新和软硬协同优化,单机即可部署运行DeepSeek R1 671B模型,帮助客户显著降低建设门槛,即降低DeepSeek R1全参数模型的部署难度及成本,同时还能提升推理服务性能,加速千行百业探索智能涌现。之所以选择DeepSeek R1 671B模型是因为它实现了FP8的模型精度,这使得它计算资源和运行资源的消耗得以大幅下降。刘军表示:“最近两周,来找我们咨询购买能够完整运行DeepSeek R1 671B模型的AI服务器的客户数正在直线上升。无论是对外提供互联网服务,还是企业内部做部署,都需要一个强大的人工智能服务器来支撑模型的推理。”周震刚也表示,最近有很多人向他打听部署一个满血版DeepSeek需要怎样的一体机配置,并表示希望了解这一市场的规模。“因此我觉得这很可能是未来一段时间内的爆发性需求。”周震刚说。

而对于刘军来说,他认为浪潮信息要做一家全链条的人工智能服务商。即浪潮信息不仅拥有人工智能 服务器硬件,还拥有源大模型、AIStation算力调度以及“元脑企智”EPAI大模型落地平台。浪潮信息也将从全链条维度来思考,如何通过协同创新将更多价值带给合作伙伴。

ad1 webp
ad2 webp
ad1 webp
ad2 webp