比DeepSeek-R1贵270倍,OpenAI史上最贵模型来了!

就在刚刚,OpenAI上线了推理模型o1-pro的API

本来大家还挺高兴,结果一看到价格,悬着的心终于死了。

  • 100万输入/输出token价格分别为150美元600美元



对比DeepSeek模型,其输出价格整整比R1贵了270倍,以至于有网友大肆吐槽:

  • 除非其智能达到了爱因斯坦级别,否则不值得。



与此同时,关于其价格的争议迅速在和Reddit平台上掀起。



OpenAI史上最贵模型

一大早,OpenAI就宣布了o1-pro API已上线的消息。

估计是为了给最后的价格做铺垫,它首先细数了o1-pro的一大堆优点:

  • 它比o1使用更多计算资源,提供更优质且稳定的响应。支持视觉处理、函数调用、结构化输出,并兼容响应式和批量API。

然后顺势给出了自己的定价理由:计算资源越多,成本越高



按照OpenAI的设想,尽管价格昂贵,但o1-pro绝对“货真价实”。

从模型介绍来看,它支持20万上下文窗口,知识截止日期为2023年10月1日,擅长复杂推理任务。



在OpenAI公布的基准测试中,o1-pro在数学和编程任务中的表现优于o1模型。



根据OpenAI CEO奥特曼的说法,Pro模式的优势在于,它可以更加努力地去思考最困难的问题



比如让它回答与生物医学有关的问题,结果真的找出了同时满足6个复杂条件的特定蛋白质,用时53秒。



还有人曾经一上来就让它“请治愈癌症”,而o1-pro居然真的开始尝试思考并在26秒后给出了详尽方案。



难怪对于如此定价,还是有人站出来说“物有所值”。



值得一提的是,目前该功能仅对特定开发者开放(Tier 1–5 开发者),也就是至少在OpenAI API服务上花费了5美元的开发者。



与此同时,除了OpenAI明面上“价值决定价格”的说法,网友们也提出了另一观点。

  • 现在OpenAI甚至不再试图关注消费者,而是试图吸引富有的投资者……



也就是说,o1-pro的高昂定价更像是OpenAI在给投资者“作秀”

毕竟,不管是对比自家模型还是其他竞争对手,这个价格都太过“离谱”了!



对比自家模型,o1-pro的定价(输入价格)几乎是GPT-4.5的两倍,是o1的10倍,更不必说其他更便宜的模型。



于是乎有人直言,此时此刻回看200美元/月的订阅费都觉得更便宜了。

(200美元订阅费支持无限使用o1-pro模型)



甚至,被这个价格刺激到的外国友友们火速弄出最新梗图:

  • 等一个DeepSeek-R2



ad1 webp
ad2 webp
ad1 webp
ad2 webp