在暗示推出一款开源模型的一个多月后,OpenAI 似乎准备好「兑现」承诺了。
4 月 1 日,OpenAI CEO 山姆·奥特曼(Sam Altman)在社交平台 X(原 Twitter)上公开宣布:OpenAI 计划在接下来的几个月内,发布一个强大的、具备推理能力的开放权重(Open-Weight)大模型。
图/ X
是 DeepSeek-R1 一样的推理模型?还是集成推理能力的对话模型?这一点还有待揭秘。但至少,如果一切按照计划推进,这款全新的大模型将是自 GPT-2 以来,OpenAI 首款重新开放权重的大模型。
消息一出,海内外科技媒体迅速跟进,不少中文媒体就以「OpenAI 预告/即将发布开源模型」作为标题,一些行业观察者也将其视为 OpenAI「重新走向开源」的标志性一步。
图/ Google
毕竟,在 DeepSeek-V3/R1 发布之后开源模型社区变得越发活跃,而 OpenAI 的封闭也显得越来越格格不入。
但如果你仔细看山姆·奥特曼的原话,会发现他并没有说「open-source」(开源),而是用了一个更谨慎的表述——「open-weight」(开放权重)来作为新模型的「前缀」。
「开放权重」和「开源」可以划等号吗?这也引发了不少网友的讨论乃至争论。需要指出的是,所谓「开放权重」,是指模型训练完成后所得到的参数对外开放,开发者可以基于这些权重进行部署、测试,甚至微调。但它不包含训练数据、不附带完整训练代码,也不保证无门槛使用。
这与很多人认知中的「开源」——即代码、数据、方法全面透明、自由使用——明显还有一段距离。
从这个意义上说,「开放权重」其实更像是一种妥协:保留核心技术壁垒的同时,释放一些能力给开发者社区。它可以降低模型的使用门槛,但难以满足真正的可验证性与可重现性需求。
所以 OpenAI 究竟是重新拥抱开源,还是在用模糊语言重新定义「开放」?某种程度上,这场关于「真开源」还是「假开源」的争议,可能远比一次模型发布本身更值得关注。
从阿里 Qwen 到 DeepSeek:「开放权重」模型,就是开源模型?
公允地讲,OpenAI 新模型「开放权重」的做法其实并不意外。
事实上,包括 DeepSeek、Qwen(阿里)、LLaMA(Meta)三家被视为开源模型社区的「主力」,在开源策略上虽然各有侧重,但核心共同点也都是——开放权重,允许外部开发者直接部署,提供用于推理代码、微调脚本和评估工具等。
DeepSeek 新闻稿,图/ DeepSeek
这意味着,开发者可以直接下载模型进行本地部署、微调、做推理服务,而这样也可以说是大模型「开源」的最低门槛。
从这个角度看,OpenAI 预告发布的新模型采用「开放权重」的做法,正是目前开源模型社区的主流方式。甚至可以说,它在定义上,与今天市面上大多数被称为「开源」的大模型并无二致。
不过尽管都是开放权重,但实际的开放程度还是各有不同。
以 DeepSeek 为例,它发布的 V2、V3、R1 等模型均开放了权重,还有相应的技术报告。同时,DeepSeek 还采用了限制极少的 MIT 开源协议,允许任何人自由地使用、修改、分发和商业化软件或模型。这也是很多开发者、厂商喜欢采用 DeepSeek 模型的关键之一。
阿里的 Qwen 模型则在开放权重之外采用了同样比较宽松的 Apache 2.0 开源协议,允许用户自由地使用、修改和分发代码,包括商业用途,仅要求保留原始版权声明和许可声明。对于开发者来说,Qwen 系列模型是一个相对成熟且兼具性能与灵活性的选择。
阿里稍早前推出的 QVQ-Max 也采用了Apache 2.0 协议,图/ Github
相比之下,Meta 的 LLaMA 虽然也开放了模型参数和推理脚本,但其使用协议限制更多。从 LLaMA 2 开始,Meta 采用了更宽松的许可证(LLaMA 3.1 又更开放了一点),但还是需要开发者申请使用,且不能直接用于某些商业应用或发布服务,这也导致其在开源社区的热度虽高,但落地场景有所受限。
总的来说,三者虽然都自称「开源模型」,但如果把「开源」拆解为几个维度来看——开放权重、开放代码、开放数据、开放训练过程、开放使用权限——你会发现,没有一家是「全开」的。没有公开完整的训练数据,也没有提供可复现的训练代码——换句话说,你可以用它的模型,但你无法从零重建它。
从这个角度看,OpenAI 即将发布的模型虽然尚未公布开源的具体策略,但如果也开放模型权重和推理代码,支持开发本地部署。那么从行业实践标准来看,它完全可以被归入今天「开源模型」的范畴之中。
OpenAI 重回开源,新模型将是 o3-mini 水平的推理模型
尽管很多人以为 OpenAI 是以开源起家,但实际上至少在 GPT-2 时期,OpenAI 就有了「闭源路线」的打算。
2019 年初 GPT-2 发布,OpenAI 开始以「恶意使用风险」的名义拒绝公开的代码,但在外界一致认为 OpenAI「夸大风险」的舆论下,他们才在 2019 年底公开满血版 15 亿参数的 GPT-2。但不论如何,从 GPT-3 开始,OpenAI 彻底走上闭源路线,不再公开权重、代码或训练数据。
因此,这一次「重新开放」,也可以视为 OpenAI 对社区释放出的一个信号。但需要明确的是,从山姆·奥特曼采用「open-weight」的字眼来看,OpenAI 新模型大概率将和今天的 DeepSeek、Qwen、LLaMA 一样:开放模型权重与推理代码,但不包括训练数据或完整的训练代码。
图/ OpenAI
不过还是要考虑 OpenAI 采用的开源许可类型。如果 OpenAI 的新模型和 Qwen 系列一样采用较为主流的 Apache 2.0 开源许可,对于大部分开发者来说可能就没有影响,开发者同样可以基于权重进行本地部署、推理服务,甚至进行微调适配,只是模型本身的训练依旧是个「黑盒」。
另外值得期待的是,山姆·奥特曼在今年 2 月就暗示过 OpenAI 开源模型的方向将是「o3-mini 级别」与「手机端侧级别」其中之一。结合最新推文中提到的「powerful new open-weight model with reasoning」,基本可以推断出 OpenAI 在开源路线上最终选择了一个「o3-mini 级别」模型来打开局面。
图/ X
这也可以理解,今时今日推理能力已经是大模型发展的共识,也是外界关注的重点,OpenAI 如果希望借由「开源」模型重回开源社区,或者是巩固自己的行业地位,推出一个「o3-mini 级别」的开源模型都是更有效的选择。
当然,OpenAI 已经开始在旧金山、欧洲和亚太地区组织开发者预览活动,邀请开发者提前试用模型原型,并收集反馈。或许在接下来的一段时间内,我们还会听到、看到更多关于 OpenAI 开源新模型的消息。
对于 OpenAI 来说,这次重返开源社区的意义,远不止发布一个模型那么简单。
过去两年,开源模型生态几乎是在没有 OpenAI 参与的情况下迅速繁荣了起来。Meta、Mistral、Qwen、DeepSeek 轮番上场,一边打造模型,一边打造生态,甚至逐渐形成了一个规模庞大的开源模型生态。
尤其在 DeepSeek-V3/R1 之后,越来越多硬件、软件厂商加入开源模型的生态之中,彻底放弃了自主训练大模型的路径,专心投入到模型微调、应用落地等方面。
对于 OpenAI 来说,这无疑是一种潜在的「威胁」,就像曾经 Android(开源)生态对于 iOS 的威胁。这也就不难理解为什么山姆·奥特曼会承认,「OpenAI 的闭源策略站在了错误的一边。」
但 OpenAI 毕竟是 OpenAI,GPT/o 系列模型的领先也毋庸置疑,而它即将发布的开源模型,或许也会改变整个开源模型社区。