一次AI革命,让原本名声不显的OpenAI一跃成为全球知名企业,估值超过1500亿美元。但若讨论哪家企业才是AI时代的最大受益者,NVIDIA绝对是唯一答案。

财报数据显示,2024年第三财季,NVIDIA营收高达350.82亿美元,同比增长93.61%,归母净利润193.09亿美元,同比增长108.90%,其中数据中心业务营收为308亿美元,同比增长高达112%,公司市值更是超越微软,位列全球第二。

AI企业与NVIDIA属于互相成就,前者需要后者提供GPU或专业AI计算卡,用于大模型的训练和推理,他们的需求助力NVIDIA营收、利润屡创新高。正因如此,NVIDIA也清楚需要付出一定的成本扶持AI公司,培养客户群体。

据英国《金融时报》报道,刚刚过去的2024年,NVIDIA累计参与了50多轮融资和多笔交易,向AI初创企业累计投资了约10亿美元,相较2023年的8.72亿美元增长了大约15%。按照这个趋势,2025年NVIDIA大概率会投资更多AI初创公司。

除了NVIDIA,其他国内外互联网公司也在不断增加AI领域的投入,一边打造自己的AI团队,一边投资其他AI公司。对于小型AI公司而言,有机会获得大企业的投资无疑是好消息,基于这种情况,2024年无数企业疯狂涌入AI行业。

天眼查数据显示,2024年国内新增AI相关企业超过50万家。可在AI技术日渐成熟的今天,进军AI行业真的还有机会吗?

“钱”字当头,AI创业入局难

AI大模型的黑盒特质使其可解释性和可调试性较弱,对于语义的理解能力、数学逻辑和推理能力,以及可能存在的AI“幻觉”,都是困扰开发者的技术难题。训练一款成熟可用的大模型,需要招募大量技术人才,去解决各种难题。然而行业的竞争促使企业互相挖墙脚,吸纳AI人才的成本不断飙升。

例如前段时间小米CEO雷军亲自出手,将参与过DeepSeek-V2大模型开发工作的罗福莉挖到了小米。网上甚至有消息称,小米公司向罗福莉开出了千万年薪。传言可能会有些夸张,但罗福莉的年薪恐怕至少是7位数。

人才之外,GPU算力也是压在AI公司心头的重担。仍以小米为例,日前界面新闻爆料称,小米正在着手打造万卡算力集群。百度集团执行副总裁、百度智能云事业群总裁沈抖曾表示,一个1.6万张GPU的集群,采购成本就高达数十亿元,更不用说搭建、运营、维护成本。



(图源:AI生成)

万卡集群只是开始,若想打造出顶尖AI,还需要购买更多GPU或专业AI计算卡。民生证券计算机首席分析师吕伟表示,以ChatGPT的6亿月活数据计算,训练任务大约需要12万张A100,推理任务所需约35万张A100。

为满足未来AI大模型的训练和推理需求,OpenAI CEO山姆·奥特曼甚至提出了7万亿美元重塑全球半导体行业的计划。算力集群的投入堪称无底洞,最终需要多少才够,现在任何AI公司都说不出确切数字。要知道,1984年上映的《终结者》电影中,觉醒了自我意识的天网系统,算力规模也仅为每秒60万亿次浮点运算,不如一张RTX 4090。

招募人才和组建算力集群的成本或许很高,但总归可以承受,更严重的问题在于,用于训练大模型的数据不够了。原定2024年中后期面世的GPT-5,至今未能完成训练,主要原因之一就是数据不够用。为解决数据不足的难题,OpenAI被迫招聘工程师、数学家、物理学家编写数据,用于训练大模型。



(图源:AI生成)

AI大模型的参数量越多,性能上限就越高,但参数量需要大量数据训练。为训练GPT-4和GPT-5,OpenAI几乎耗尽了网上公开的论文、新闻资讯,以及社交平台上的帖子,甚至因此惹上了官司,被加拿大新闻社、加拿大广播公司、Torstar、环球邮报等媒体起诉。

倒不是说数据完全被耗尽,只是剩下的数据未经公开,基本在各大公司内部,AI公司难以获取到。山姆·奥特曼直言,未来训练一个大模型的成本可能会超过10亿美元。

人才、算力、数据三大成本在前,哪怕是互联网巨头也倍感压力,更不用说涌入AI行业的初创公司了。

不过并非没有低成本训练大模型的方法,小米开出天价年薪招募罗福莉,目的很可能在于罗福莉的身份——DeepSeek-V2开发工作的参与者。

DeepSeek大获成功,降本增效不是不行

最近一段时间,AI行业最火的新闻无疑是DeepSeek-V3模型的到来,其低至557.6万美元的训练成本,大约只是GPT-4的二十分之一,预计不到GPT-5的二百分之一。经过小雷实测,DeepSeek-V3在文字生成、数学推理等领域的体验不输豆包、文心一言、Kimi等国内极负盛名的AI应用。

DeepSeek全新大模型的成功,向其他AI公司传达了一个信息——训练大模型的成本可以不用很高。然而有舍必有得,低成本训练出的大模型,存在一些难以解决的问题。

能够以极低成本训练出部分场景体验媲美豆包、Kimi的大模型,DeepSeek的诀窍在于有三,第一来自MLA架构和MoE架构,前者利用多头潜在注意力机制,可提取相邻层的特征并进行压缩,从而减少计算量,降低大模型训练所需成本;后者属于专家混合架构,具备6710亿参数,但每次仅激活370亿参数,降低了对计算资源的需求。



(图源:AI生成)

第二是FP8混合精度训练框架,以降低精度、压缩键值为代价,在尽量不影响模型性能的前提下,大幅节省了显存和计算资源,可提升训练速度,降低训练成本。

第三为模型蒸馏,普通大模型要利用大量数据进行训练,蒸馏技术以被训练好的模型为“教师”,筛选出有效数据,去训练一个“学生”模型,从而降低成本。DeepSeek之所以在开源模型领域享有如此之高的声誉,并将DeepSeek-V3打造成当前最强开源大模型,蒸馏技术无疑是关键因素。

这些技术虽降低了成本,却以牺牲精度为代价,尤其是蒸馏技术,存在一个极为严重的缺陷,即“学生模型”的能力无法超过“教师”模型。追求极致的AI企业不会过度采用蒸馏技术训练AI,南洋理工大学计算机研究人员王汉卿表示,他认识的一线研究人员,基本没人在搞模型蒸馏了。

事实上,利用其他AI产出的数据训练大模型,几乎所有AI企业都在做,但若过度依赖数据蒸馏,会出现生成数据偏差、丧失多样性等问题,甚至可能生成无意义的回答。DeepSeek-V3上线后,便出现了回答用户问题时自称是ChatGPT的情况。

对此山姆·奥特曼亲自回应称,复制先行者的东西是相对容易的,去做新的、有风险的、有难度的事情是困难的,敢于挑战困难的研究人员,理所应当获得更多荣誉,这是世界上最酷的事。尽管没有明说,但山姆·奥特曼已是在嘲讽DeepSeek-V3抄袭,未来蒸馏技术也可能面临侵权问题。

无论如何,DeepSeek-V3的成功,都为其他AI公司和考虑入场的企业指出了一条新的道路,通过降低精度、压缩内容、蒸馏模型,无需数亿美元的高昂成本,也能训练出表现出色的AI大模型。

AI行业,依然是“野心家”的乐园

近十年间,全球最成功的两大新兴企业该是新能源汽车和AI大模型,未来人形机器人有机会进入此队列。新能源汽车行业的发展历程,将在AI行业复现,初期参与的企业极多,但经过大浪淘沙,技术实力、管理能力不行的企业会逐渐被淘汰。

AI行业正处于从快速发展期向成熟期过渡的中级发展阶段,任何企业都仍具有成长为巨头的机会。只是能否利用好这些机会,则要看AI公司的技术实力、管理能力、战略眼光。



(图源:AI生成)

当前AI行业依然可以入场,但只适合两类企业,一类是财力雄厚,向行业顶峰进发的企业。此类企业将承担起引领行业进步的责任,不断开拓进取,将AI的能力推向高峰。

投入大约100亿美元却没能生产出新能源汽车的苹果公司和血亏1100亿元的恒驰汽车说明,任何新兴行业都存在大量风险,不是钱多就一定能成事。AI行业同样如此,投入和产出未必成正比。不过风险与机遇总是并存的,做到极致的企业未来才能赚大钱。

另一类企业则是以“够用就行”为目的,不追求功能特性达到极致的公司,可通过降低精度和蒸馏技术,以较低成本打造体验不错的大模型。DeepSeek-V3训练成本仅557.6万美元,能够负担得起的初创公司不在少数。

至于空有野心却实力不足的企业或创业者,已不适合现在的AI行业。尽管有NVIDIA、微软等巨头向初创企业投资,但那点钱相对于顶级AI大模型的开发工作无异于杯水车薪。AI行业依然是野心家的乐园,只是门槛比过去高了一些,入场需要更加谨慎。

25年1月7日,CES(国际消费电子展) 2025 即将盛大开幕,雷科技报道团已飞赴美国现场整备,届时我们将对CES展开全程专业报道,敬请关注。



ad1 webp
ad2 webp
ad1 webp
ad2 webp