新智元报道
编辑:Aeneas 好困
【新智元导读】除夕这天,DeepSeek继续让我们见证历史:美股科技股全线崩盘,英伟达股价暴跌17%,市值一夜跌破6000亿美元,打破历史纪录,老黄个人资产已缩水210亿美元。不过AI大牛Karpathy刚刚强调,开发前沿LLM仍然需要大规模GPU集群。
DeepSeek引爆的全球大地震,还在继续。
刚刚,美国科技股直接全线崩盘,大跳水幅度打破历史纪录!
英伟达股价暴跌近17%,一夜市值减少近6000亿美元,创下了单个公司史上最大市值损失纪录。
周末,DeepSeek造成的恐慌情绪已经酝酿了两天,果然一到周一就爆发了出来:市场发生剧烈震荡。
「DeepSeek以极低的价格建立了一个突破性的AI模型,而且没有使用尖端芯片,这让人们质疑,AI行业数千亿资本的巨额投入真的值得吗?」
这个疑问如今愈发成为共识,表现在股市上,就是跌穿底盘。
对此,微软CEO纳德拉点评道:「Jevons悖论再次显现!随着AI变得更高效、更便宜、更易获取,其使用量将出现井喷式增长,成为我们难以满足的『新型必需品』。」
美股科技股,一夜跌穿
现在,以科技股为主的纳斯达克综合指数下跌了3.1%,标普500指数下跌了1.5%。微软股价下跌了2.1%。美国标普1500综合指数上市公司的交易量,比平常高出1/3以上。
一切迹象都显示出,DeepSeek让投资者开始重新思考硅谷科技大厂股价的真实水分。
这张调侃中美欧AI现状的梗图,在社区被传疯了
英伟达跌幅破纪录,老黄资产缩水210亿美元
英伟达的收盘价118.58 美元,创下自2020年3月16日以来的最大单日跌幅。
要知道,就在此前一周,英伟达刚刚超越苹果,成为全球市值最高的上市公司。
在美国的AI数据中心芯片市场,英伟达的GPU一直处于主导地位。
为了训练和运行AI模型,谷歌、Meta 和亚马逊等科技巨头都在这些GPU上投入了数十亿美元。
结果,DeepSeek据称只用了性能受限的H800,用时两个月,投入不到600万美元就完成了开发。
所以,市场对算力需求还会这么大吗?如今投资者普遍担心:GPU的相关支出,可能已经见顶。
分析师极力劝阻大家,表示「这种观点完全不符合实际情况」,因为AI技术的进步,会导致AI行业对算力的需求只增不减,因此应该尽量多多买入英伟达股票。
但投资者已经用脚投票了。
过去两年,英伟达股价涨势惊人,在2023年飙升了239%,在2024年累计上涨171%。如今,市场对任何可能的支出减少都异常敏感。
另一家在AI浪潮中市值大幅攀升的芯片巨头博通,周一股价也重挫了17%,市值蒸发2000亿美元。
那些业务依赖英伟达GPU进行硬件销售的数据中心公司,股价同样遭遇大幅抛售。
戴尔、惠普和超微的股价跌幅均超过5.8%。参与特朗普总统最新星际之门计划的甲骨文更是暴跌14%。
对英伟达而言,这次的市值损失超过了去年9月创下的2790亿美元跌幅记录的两倍多。
当时,它的跌幅曾创下历史最大单日市值损失纪录,超越了Meta在2022年创下的2320亿美元跌幅。在这之前,最大跌幅是苹果公司在2020年的1820亿美元。
总之,英伟达此次的市值缩水额度超过了可口可乐和雪佛龙两家公司的市值总和,也超过了甲骨文或网飞的总市值。
根据福布斯实时亿万富豪榜显示,英伟达CEO老黄的个人净资产也遭受重创,缩水约210亿美元,在全球富豪榜上的排名下滑至第17位。
影响远超传统科技股
而且,这轮抛售的影响远远不止传统科技股。
为AI基础设施提供电气硬件的西门子,股价也暴跌了20%。大力投资数据中心服务的施耐德电气,股价也下跌了9.5%。
强大的恐慌情绪下,避险资产成为安全的新选择。强生、可口可乐、通用磨坊和好时等日用消费品的股价,倒是一路稳健上涨。
为AI革命提供「铲子」的公司,股价尽皆大跌,不由让人想起互联网泡沫破灭时,IT硬件巨头思科的股价崩盘。
而在AI竞争中投入较少的苹果,反而「因祸得福」,股价上涨了3.3%。
Karpathy:算力决定了智能的上限
去年12月,AI大牛Karpathy就在DeepSeek-V3发布时,针对LLM的算力需求进行了分析。
举个例子,Llama 3 405B消耗了3080万GPU小时,而性能更强的DeepSeek-V3,却只用了280万GPU小时(算力减少了约11倍)。
那么,这是不是意味着开发前沿LLM就不需要大规模GPU集群了呢?
并非如此。关键在于要充分利用手头的资源,而这个案例很好地证明了在数据处理和算法优化方面还有很大的提升空间。
对于最新发布的R1,这一观点也同样适用。
在AI发展史上,还没有哪个算法像深度学习这样,对算力如此饥渴和贪婪。
虽然你可能并不总是充分利用这些算力,但从长远来看,算力是决定可实现智能上限的关键因素。这不仅体现在最终的训练过程中,更体现在推动算法创新的整个研发生态系统中。
传统上,我们常把数据视为独立于算力的范畴,但实际上数据在很大程度上是算力的衍生物——只要有足够的算力,你就能生成海量数据。
这,就是所谓的合成数据生成。但更深层的是,「合成数据生成」与「强化学习」之间存在着本质的联系(可以说是等价的)。
在强化学习的试错过程中,「试验」阶段就是模型在生成(合成)数据,然后根据「错误」(或奖励)来学习。反过来说,当你生成合成数据并对其进行任何形式的排序或筛选时,你的筛选器本质上就等同于一个0-1优势函数——这其实就是一个简单的强化学习过程。
无论是深度学习,还是人类幼崽,都存在两种主要的学习模式:(1)模仿学习(观察并重复,也就是预训练和监督微调),(2)试错学习(强化学习)。
比如AlphaGo,就是先(1)通过模仿专业棋手来学习,再(2)通过强化学习来提升获胜能力。
可以说,几乎所有深度学习中令人惊叹的突破,以及所有「魔法般」的效果都来自于方式2。
正是方式2让打砖块游戏中的挡板学会了在砖块后方击球,让AlphaGo战胜了李世石,也让DeepSeek(或其他类似模型)领悟到重新评估假设、回溯、尝试新方法等策略的重要性。这就是你在模型的思维链中看到的解决策略,这就是它如何来回思考的方式。
这些思维模式是「涌现」出来的,的确令人难以置信,也是一个重大突破(至少在公开记录的成果中是如此)。
模型不可能通过方式1(模仿)来学习这些,因为模型的认知方式与人类标注者完全不同。人类根本不知道该如何正确标注这些解决问题的策略,也不清楚它们应该呈现什么样子。这些策略只能在强化学习过程中被发现,作为实践证明有效的、能够达成目标的方法。
最后补充一点:强化学习确实强大,但RLHF却不是。因为RLHF本质上不是真正的强化学习。(Karpathy在之前的推文中已经详细吐槽过了)
对于Karpathy的这波分析,英伟达高级研究科学家Jim Fan深表赞同:「机器终将训练机器。永远不要怀疑scaling的力量,永远不要。」
参考资料:
https://www.cnbc.com/2025/01/27/nvidia-sheds-almost-600-billion-in-market-cap-biggest-drop-ever.html
https://www.ft.com/content/e670a4ea-05ad-4419-b72a-7727e8a6d471
https://x.com/karpathy/status/1883941452738355376
https://x.com/DrJimFan/status/1883961057074634885