在人工智能领域风头正劲的 OpenAI,如今却陷入了硬件资源的 “泥沼”。

2月28日在社交媒体上,CEO Sam Altman大倒苦水,称公司因 GPU 供应不足,不得不 “挤牙膏” 式地分阶段推出GPT-4.5模型。

Sam Altman表示,GPT-4.5 是“庞大”且“昂贵”的,而由于目前面临的GPU短缺问题,需要增加"数万个"GPU才能支持更多用户访问。

从本周四开始,GPT-4.5只能首先向ChatGPT Pro用户开放,随后在下周才能向ChatGPT Plus用户群体开放。"我们业务增长很快,现在GPU库存告罄,"Altman表示,"下周我们将增加数万个 GPU。"

其实,OpenAI 的 “硬件之困” 早已露出苗头。

去年10月份,在 Reddit AMA 上,Sam Altman 就承认计算能力不足是产品按时出货的 “拦路虎”。面对下一代 AI 模型为啥这么久还没推出的灵魂拷问,他直言:

“这些模型太复杂了,我们得在众多好想法里艰难抉择,分配有限的计算资源。”

许多报道表明,OpenAI 一直在努力确保足够的计算基础设施来运行和训练其生成模型。据路透社报道,OpenAI将专注于内部芯片设计。去年开始已经在与博通合作开发用于运行模型的 AI 芯片,该芯片最早可能在 2026 年问世。

此外,GPT-4.5的定价策略引人注目。OpenAI对该模型的收费标准为:输入每百万token(约75万字)收费75美元,输出每百万token收费150美元。这一价格相较于公司主力模型GPT-4,输入成本增加了30倍,输出成本增加了15倍。

在这场AI军备竞赛中,硬件成本正呈指数级飙升。而此次GPT-4.5的定价策略,本质上是在将硬件成本转嫁给终端用户。

ad1 webp
ad2 webp
ad1 webp
ad2 webp