智东西
编译 风衣
编辑 Panken
智东西1月15日消息,据彭博社1月5日报道,本次采访是阿尔特曼(Sam Altman)作为OpenAI CEO接受的、内容最丰富的采访之一。
在采访中,阿尔特曼详细阐释了四天解雇事件的始末,直言这件事给他带来了巨大的伤害:他不仅得收拾这群人留下的一大堆烂摊子,还得独自熬过那段低落又尴尬的时光。但同时也说,自己很理解董事会的忧虑,也尊重他们的真诚信念;但关于自己“不坦率”的说法是捕风捉影,自己从来没做过见不得光的事情。
关于为什么要向美国即将上任的总统特朗普捐赠100万美元的就职基金,阿尔特曼说这完全是爱国行为,并不是出于政治利益。他也相信特朗普的盟友马斯克不会滥用政治权力进行不正当AI竞争,自己跟马斯克在之前的合作中也没什么不愉快。
阿尔特曼也回顾了OpenAI的创业历程。是伊利亚(Ilya Sutskever,OpenAI联合创始人,解雇事件中支持开除阿尔特曼)奠定了AGI的发展战略,OpenAI至今受用;当初自己力排众议要推出ChatGPT,自己在风投行业的从业经验成了一把双刃剑。披露了OpenAI的实际运营情况以及对AGI*的执着追求。为方便阅读,采访内容有适当调整。
*AGI是AI的下一个发展阶段,人类智力能够完成的任务AGI也都能完成,目前还仅存在于理论上。
一、与伊利亚的双人晚宴奠定AGI战略,OpenAI至今遵循晚宴精神
2022年11月30日,OpenAI的网站流量几乎是零。那时OpenAI还是一家规模很小、没什么水花的初创公司,老板们甚至懒得跟踪网站流量。2022年11月30日是个平静的日子,也是OpenAI最后一次体验这种平静。在接下来的两个月内,OpenAI的网站流量超过1亿,这些访问者兴奋地尝试ChatGPT并对它强大的功能感到惊讶。从此以后,一切都变了,尤其是CEO萨姆·阿尔特曼(Sam Altman)的生活。
问:回首过去两年,你的团队认为这次访谈是回顾、反思以及澄清的好时机。在此之前,你能再讲讲OpenAI创始晚宴的故事吗?随着AI发展,这次晚宴的含金量还在上升。
大家都想听到简洁的故事:某时某刻,某个伟大的想法横空出世。保守计算,那一年(2015年)也有20次创始晚宴,一次晚宴被载入史册而后广为人知。对我个人来说,最重要的是我和伊利亚(Ilya Sutskever)*在加利福尼亚山景城Counter餐馆的晚宴,只有我们俩。
再往前倒退,我一直对AI非常感兴趣,在本科阶段就研究过。后来也分心其他领域,直到2012年伊利亚和其他人做了AlexNet*。我一直在关注AlexNet的进展,心想:“天哪,深度学习好像真的能实现,还有很大的发展空间。这是个前景非常广阔的领域,应该有人来开拓发展。”
所以我开始和一群人见面,寻找适合一起做这件事的人。在2014年,AGI简直不能更不入流了。大家都害怕和我说话,因为我说我想启动一个AGI项目。大家好像觉得我应该打消这个念头,这个念头可能会毁了我的职业生涯。
但很多人说,有一个人你确实得跟他谈谈,那就是伊利亚。所以,在一次会议上我一直密切关注他,我在走廊里找到了他然后谈了谈,我觉得“这个人很聪明”。我向他讲了我的想法,然后约定吃一顿晚饭。就在那顿晚饭时,虽然使用的字眼跟现在不完全一样,但伊利亚基本上阐述了我们构建AGI的战略。
*AlexNet由亚历克斯·克里热夫斯基、苏茨克夫和杰弗里·辛顿创建,使用深度卷积神经网络(CNN)来识别图像,比以往任何时候都更准确,开启了AI的重大进展。
*伊利亚·苏茨克夫(Ilya Sutskever)是OpenAI的联合创始人之一,也是AI领域的顶级研究人员之一。作为董事会成员,他参与了奥特曼在2023年11月的解雇事件,几天后他对自己的决定公开表示后悔。他于2024年5月离开了OpenAI。
问:至今OpenAI还遵循着那顿晚宴的发展精神吗?
几乎所有内容都保留下来了。虽然在此基础上搭建了更多新的内容,但我都难以置信,那顿晚餐敲定的方法竟然这么有效:我们对深度学习的愿景、实现这一愿景的技术路径以及研究和工程相结合的研究方法。通常你产生这些想法时,想法并不会完全奏效。而我们最开始的想法中,有一部分显然完全不合适,比如(非盈利的)公司架构以及相关的那些东西*。但相信AGI可能实现、以及实现后AGI会对社会产生重大影响,这就是我们孤注一掷的方向。这个方向是非常正确的。
*OpenAI于2015年作为一个非营利组织成立,其使命是确保AGI造福全人类。但后来引发一系列问题,包括阿尔特曼的解雇风波。
二、共创AGI理念吸引草莽英才,OpenAI松散的头几年最为有趣
问:OpenAI初始团队的优势之一是人才招募。不知怎的,你们就垄断了大量顶级AI研究人才,而薪酬又通常比竞争对手少得多。你们是怎么说服这些人才的?
我们的招聘理念很简单:共创AGI的未来。这个理念之所以有效——我们当时说要开发AGI,这个想法简直不能再异端了,所以这会过滤掉99%的人,得到真正有才华的、有独到见解的思考者,AGI理念的号召是非常强大的。
如果你要做每个人都在做的事情,比如说,你在开发第10,000个照片分享应用?这样很难招募到人才;但如果让他们相信没有人在做这件事,并且要聚集一小部分真正有才华的人?这样你能把这些人才全都吸引过来,而且他们都想在一起工作。所以我们有一个当时听起来大胆、甚至异想天开的招聘理念。这个理念排除了领域内所有资深专家,然后我们得到了那些出身草莽、年轻的、有才华的人,与他们共事对从零到一的发展大有裨益。
问:你们很快就确定了角色分工吗?
大多数人都是全职工作,当时我还有一份工作*,所以一开始我做的不多。随着时间推移,我越来越为这项事业沦陷,到2018年,我已完全无法自拔了。但一开始OpenAI有点像兄弟连(Band of Brothers):伊利亚和格雷格(Greg Brockman,OpenAI的联合创始人,现任总裁)算是在运营公司,但每个人都在做自己的事情。
*2014年,阿尔特曼成为Y Combinator的CEO,这家创业孵化公司孵化出Airbnb,Dropbox和Stripe等公司
▲OpenAI高级管理团队,摄于2023年3月13日,地点:旧金山总部,左起:阿尔特曼(首席执行官)、米拉·穆拉蒂(首席技术官)、格雷格(总裁)和伊利亚(首席科学家)。(图源:Jim Wilson/The New York Times)
问:你似乎对OpenAI最开始的几年抱有浪漫的看法。
嗯,那几年肯定是OpenAI历史上最有趣的时候。我是说,现在也很有趣,但能参与那个我认为会成为科学发现最伟大时期之一的时刻,想着那个发现对世界的影响会有多大?那是一生只会有一次的经历,你得非常幸运,非常非常幸运。
问:2019年你接任了CEO,那是怎么发生的?
我试图同时在OpenAI和Y Combinator任职,这真的很难。我只是为我们真的要开发出AGI这个念头深深着迷。说来也有趣,我记得当时我对自己说,我们会在2025年做到,但2025只是一个完全随机的数字,随便在开始时间上加了10年。那个时候大家经常开玩笑说,我唯一要做的事就是走进会议室说,“扩大规模!”这不是真的,但那段时间确实基本上是这种情况。
三、阿尔特曼力排众议发布ChatGPT,为争取算力推出订阅制
问:ChatGPT的官方发布日期是2022年11月30日。这像是很久以前的事,还是就像一周前的事?
(笑)我明年就40岁了。在我30岁生日那天,我写了一篇博文,标题是“日子很长但十年很短。”今天早上有人发邮件给我说:“这是我最喜欢的博文,我每年都会读。当你40岁时,你会写更新版吗?”我笑了,因为我肯定不会写更新版,我没有时间。但如果我写了,标题会是“日子很长,十年也很长。”所以正式发布像是很久很久之前的事情。
问:在第一波用户开始涌入时,很明显这将是一件巨大的事情,你有过“卧x”这样的时刻吗?
嗯,好吧,有这么几件事。首先,我认为它会做得相当好!公司其他人都在说,“你为什么让我们发布这个?这是个错误的决定,ChatGPT还没准备好。”我不常做“我们就是要做这件事”这样的决定,但这是其中之一。
YC有个著名的图表,是保罗·格雷厄姆(Paul Graham,Y Combinator的联合创始人)之前画的,产品潜力先波动上升,然后新鲜感消退,接着是一个长长的低谷,再往后随着市场需求波动,最终产品腾飞。这是YC的口口相传的一个知识。
最初几天,ChatGPT运行时,白天的使用量更多,晚上更少。团队说,“哈哈哈,使用量下滑啦。”但我在YC学到的一件事是:如果新的最低点比之前的最高点还要高,那就是有不同寻常的事情发生了。ChatGPT发布的前五天看起来就是这样,当时我就觉得,“我们手里有一些我们还没意识到价值的东西。”
然后我们疯狂地争取大量的算力——当时我们根本没有——因为我们推出这个产品时没有商业模式,也没有商业模式的想法。我记得那年(2022年)12月的一次会议上,我说,“我会考虑所有能支持我们支付(算力)费用的想法,无论如何,我们不能继续像现在这样了。”
有些想法真的非常糟糕,也没有一个好办法。所以我们就说,“好吧,我们就试试订阅模式,之后再想办法。”那就这么定了。
我们用GPT-3.5推出订阅模式,由于知道GPT-4很快就会发布,所以我们清楚ChatGPT的表现以后会更好。我开始和使用ChatGPT的人交谈,了解他们的用途,我就觉得:“我知道我们也能把这些事情变得更好。”我们快速发展ChatGPT,引来了全球媒体的关注时刻,或者随便你想怎么称呼那个时刻。
四、风投经验带来预测发展能力,名气太大导致尴尬距离感
问:你是个享受成功的人吗?你能享受这一切,还是已经开始担心下一阶段的发展了?
关于我,或者我的职业生涯,有一个非常奇怪的事情:正常的发展轨迹是,你先经营一家大型的、成功的公司,到了50或60岁时,你不想再那么努力工作,就成了风险投资者。而我先做风险投资而且从业很长一段时间,然后再经营公司,这是很不寻常的。
在我看来,这种奇怪的发展轨迹有很多问题。但对我有一个很大的好处,就是你会拥有正常来说不会有的预感,因为你观察并建议过一大堆人该如何应对这些公司问题,所以你知道自己的公司将会面对什么。我意识到自己既感到无比感激,又觉得,“卧x,我要被绑在火箭上了(指OpenAI将会快速发展),我的生活马上要翻天覆地但又变得很无趣。”对这个事我有很多黑色幽默,我的丈夫(Oliver Mulherin)会讲那个时候的趣事:我回到家时,他会说,“这太好了!”而我会说,“这真的很糟糕,这对你也很糟糕。你只是还没有意识到,但这真的很糟糕。”[笑]
*阿尔特曼在2024年初与长期伴侣、澳大利亚软件工程师奥利弗·穆尔赫林(Oliver Mulherin)结婚。他们预计将在2025年3月迎来一个孩子。
问:在硅谷你已经很出名了很长时间,但GPT的到来让你以巨星般的速度成了世界名人。这是否影响了你管理团队的能力?
这影响了我正常生活的能力。但在公司里,不管你这个CEO出不出名,大家都只会说,“他x的,我的GPU呢?”
但在生活的其他方面,我感受到了这种距离感,这真是件很奇怪的事情。不管跟老朋友还是新朋友在一起,只要不是我最亲近的人,我都会有这种感受;我猜,如果跟工作里平时不互动的人待在一块,我也会有这种感受;加入我必须参加一个会议,里面的人我都没怎么见过,那我也会感受到距离感。但我大部分时间都和研发人员在一块。我跟你打包票,你来看看我一会的研发会议,你就会看到这群人对我一点都不客气,这种感觉特别好。
五、对解雇始料未及,阿尔特曼详细回顾事件四天全程
问:一家拥有数十亿外部投资的盈利公司,却要向非营利的董事会报告。你记不记得你什么时候第一次预感到这可能会产生问题?
一定有很多这样的时刻。但2022年11月到2023年11月那段时间疯狂又模糊,我几乎什么都不记得了。那12个月就像是几乎从零起步建立了一家公司,而且整个过程是赤裸裸公开的。回首那段时间,我学到的重要教训是:每个人都说他们不会搞错重要事情和紧急事情的相对排序*,但每个人都会被紧急事情骗了。所以我会说第一次冷静面对现实、意识到这种模式行不通,大概是那个星期五下午的12点05分左右*。
*德怀特·艾森豪威尔(Dwight Eisenhower)常说“重要的事情很少是紧急的,紧急的事情很少是重要的”,这催生了艾森豪威尔矩阵,将任务分为四个象限:紧急且重要、重要但不紧急、紧急但不重要、 不紧急且不重要。理解艾森豪威尔矩阵的智慧——忙的时候又忽略了这个矩阵——是创业公司的传统。
*大约是北京时间2023年11月18日凌晨5点,OpenAI董事会通知阿尔特曼他被解雇了,仅在发布解雇公告(11月18日凌晨5点21)前5到10分钟才通知了阿尔特曼。当时阿尔特曼正在Google Meet会议的间隙观看拉斯维加斯赛车大奖赛(the Las Vegas Grand Prix)。
问:当你被解雇的消息传出时,大家都很震惊。但你看起来是一个情商很高的人,你之前有察觉到任何氛围紧张的迹象吗?你知道你是紧张氛围的根源吗?
我并不认为我是一个情商很高的人,但即使是我,也感受到了那种紧张的氛围。你知道,董事会里一直有关于安全与能力、董事会应该扮演什么角色、如何平衡这些事情的讨论,所以我知道氛围有点紧张。但我不是一个情商很高的人,所以我可能只感受到其中的一小部分。
解雇的第一个周末发生了很多烦人的事情。我记得那段时间——可能我会记错细节——星期五中午,他们解雇了我;当天晚上,很多人都辞职了;当天深夜,我已经开始想:“我们去开启一个新的AGI项目吧”;当天再晚一点,有管理团队的人说,“呃,我们觉得我们可能会取消解聘。你冷静点,再等等。”
周六早上,两位董事会成员打电话过来,想跟我谈谈让我回去的事。我一开始非常生气,拒绝了他们。后来我就觉得:“行吧,这样也行”,我真的很关心OpenAI。但我说:“只有整个董事会辞职(我才会回去)。”我现在希望我当时能采取别的办法,但当时我觉得,这真是再正当不过的请求了。
后来那段时间,我们对董事会非常不满,所以尝试协商出一个新的董事会。我认为当时的董事会有一些想法很荒谬,他们也认为我有一些想法很荒谬,但我觉得彼此间还是大体上达成了一致。
然后——这是整个解雇期间我最生气的时候——(返聘文书)拖了一整个星期天。周六再到周日,他们一直在说:“马上就好了。我们在等法律意见,但董事会的同意书已经在起草了。”我一直说:“现在是我维系着公司,决定权在你们手中,你们确定你们跟我说的是实话吗?”“当然,你很快就要回来了,很快就回来了。”
然后周日晚上他们突然宣布Emmett Shear是新的CEO。我就觉得:“好吧,我他x真完蛋了”,因为这是实实在在的欺骗。到了周一早上,所有人都威胁要辞职,然后董事会就说:“好吧,我们不能再这么搞了。”
▲OpenAI旧金山办公室,摄于2023年3月10日。(图源:Jim Wilson/The New York Times)
六、阿尔特曼完全尊重董事会理念,自己从未做过见不得光的事
问:董事会表示,他们进行了一项内部调查,结果是你在与他们的沟通中没有“始终如一地坦率”。这个说法很具体:他们认为你在撒谎或隐瞒了一些信息;但也很模糊,因为并没有说明你到底在哪些方面不坦诚。你现在知道他们指的是什么吗?
我听到过不同版本的说法。比如有这么一种说法:“Sam甚至没有告诉董事会他要发布ChatGPT。”我对这件事有不同的记忆和理解,但无论如何,我绝对没有说过“我们要发布这个会引起轰动的东西”或类似的话。我认为,很多类似的事情都被刻画得很片面。
我更清楚的是,在一些我认为是冲突或有问题的做法上,我和一些董事会成员产生过分歧。而且他们对我试图把他们赶出董事会的方式很不满意。真是吃一堑,长一智。
问:我可以提出一个理论吗?
当然。
问:你在某刻突然意识到,OpenAI的结构会压垮公司,而且可能是从根本上摧毁公司。因为一个使命驱动的非营利组织永远无法争取到算力,也做不到OpenAI需要的快速转型。董事会成员是一群原教旨主义者(originalists),他们把纯粹性置于生存之上。所以你开始做出一些决策,能让OpenAI具有竞争力。但这就需要有点不那么光明正大,而董事会——
我没觉得我做了什么偷偷摸摸的事情。我觉得我能说的最多是,由于一心追求快速发展,董事会并没有看到大局。比如曾有过这样的事:“Sam拥有一笔启动基金,但他没有告诉我们。”而这件事之所以会发生,是因为OpenAI的复杂结构:OpenAI本身不能拥有这笔基金,拥有OpenAI股权的人也不能拥有这笔基金。而我恰好是那个没有OpenAI股权的人,所以我暂时是这笔基金的所有者或普通合伙人,直到建立了能转移这笔基金的股权结构。
对于董事会应不应该知道这件事,我有不同的看法。但哪怕只是为了避免瓜田李下,以后类似的事情是不是需要更清晰的沟通?对,这点我以后会改进的,但那绝不是偷偷摸摸。这是疯狂的一年,对吧?OpenAI以极速向各个方向发展。我支持你去问任何一个现任董事会的成员,问问他们是否觉得我做过任何见不得光的事。因为我会刻意避免做那些偷偷摸摸的事。
我认为,旧董事会的坚定信念和对AGI出错的担忧都是真诚的。比如,曾有一个董事会成员在那个周末对团队说:“摧毁公司与非营利董事会的使命可能是一致的”,大家会有点拿她开玩笑。(但)我认为那是深信不疑而后才能拥有的勇气。我觉得她是认真的,尽管我完全不同意他们所有具体的结论和行动,但我尊重这种信念。
我认为,尽管旧董事会的行动出于错误的动机,但确实是源自真诚的坚定信念。也许他们认为,AGI近在眼前,而我们却没有负起应有的责任。所以我尊重这一点,同时完全不同意其他所有细节。
七、被解雇事件深深伤害,收拾烂摊子心神俱疲
问:你现在坐在这儿,无疑获得了最后胜利。但换个角度想想,难道你没有被这些事情伤害吗?
我太受伤了。其实最难的不是挺过解雇那四天,因为在肾上腺素的冲击下,那四天你可以做很多事情。而且看到公司和各个社群的人支持我,我的心里暖暖的。但很快,一切都结束了,我却要面对烂摊子。每一天都更糟糕了,比如又一次政府调查,又有旧董事会的人向媒体泄露假消息……那些狠狠搞了我、搞了OpenAI的人都拍拍屁股走人了,但我还得给他们收拾烂摊子。
那时差不多也是现在这个季节(十二月),大概下午四点四十五分天就黑了,冰雨刺骨,晚上我常常独自在房子里踱步,心灰意冷、心神俱疲,感觉这一切真是太不公平了。先挺过突如其来的解雇,然后一刻不停(地跑去处理烂摊子),因为整个公司都被架在火上,这真是太疯狂了。
问:当你回到OpenAI时,你是否因为担心自己的形象被误解,而有意识地做出重大决策或公告?其实,我说简单点,你是否觉得有些人认为你不是个好人,而你需要让他们相信你是个好人?
情况比这还要差。一旦澄清所有事情后,一切就都正常了。但最开始那几天,没人知道发生了什么。所以我走在走廊上,大家都会避开视线,就像我癌症晚期了一样。有人同情,有人理解,但没人知道该说什么。那段时间真的很难。但我想:“我们还有个复杂的工作要做,我会继续做下去。”
八、日程表塞满安排事务,会更多进行小规模内部交流
问:你能描述一下,实际上你是如何管理公司的吗?你是怎么度过一天的?比如,你会和工程师个别交流吗?你有时间走动吗?
让我看看我的日程表。我们每周一有一个三小时的执行团队会议。然后,好,昨天和今天,我和六个工程师进行了一对一交流。我接下来要参加一个研究会议。明天有几场大型的合作伙伴会议,还有很多计算方面的会议。关于算力建设的会议有五个。我明天有三场产品头脑风暴会议,之后还和一个重要的硬件合作伙伴有一场大型晚宴。大致就是这样,有一些是每周例行事务,然后大部分时间是应对各种突发情况。
问:你花多少时间进行沟通,包括内部的和外部的?
更多是内部沟通。我不是那种写激励邮件的人,但我有很多一对一、小组会议,然后还大量地用Slack交流。
问:哦,天哪。上帝保佑你。你也陷入了Slack这个信息泥潭吗*?
我是Slack的忠实用户,你可以在Slack这个泥潭里获取大量数据。我的意思是,就深度而言,没有什么能比得上和小研究团队开会讨论;但就广度而言,我的天,你真的可以从Slack获得很多信息。
*Slack是美国的团队沟通工具,因信息过载、频繁通知让用户感到困扰,部分人戏称它为“泥潭”。
九、OpenAI的体量要求自己关注宏观策略,会尽全力保护研究部门
问:你之前谈到过,自己在如何设计ChatGPT以及用户体验方面有着非常明确的观点。那有没有一些时候,你的能力要求你成为更具执行力的上场队员,而不是做策略的教练?
以如今(OpenAI这么大)的体量吗?不太可能出现。昨晚和Sora团队吃晚饭的时候,我给出了好几页已经写好的、非常详细的建议,但这种情况一般不太会出现。或者访谈结束后的那次会议,我会给研究团队非常具体的建议:告诉他们我认为他们在接下来的三个月应该做什么,而且会提供很多细节,但这也很不常见。
问:我们已经讨论过了,科学研究有时会与企业结构出现冲突。而你把研究部门与公司其他部门分开了,距离好几英里,这个做法是否具有象征性意图?
哦,没有,这只是出于物流和空间规划的考虑。我们最终会建立一个大型园区。研究部门仍然会有自己的专属区域。保护研究核心对于我们的业务是极其重要的。
问:保护它不被什么伤害?
硅谷公司通常的发展路径是:公司初创时以产品为导向,产品做得很好,公司逐步发展壮大;规模扩大后,收入增长通常会逐渐放缓。此时,CEO可能会萌生建立研究实验室的想法,想以此产出新创意,进而推动发展。这种方式在历史上偶有成功,例如贝尔实验室(Bell Labs,诺基亚的工业研究实验室)和施乐帕克研究中心(Xerox PARC,鼠标、以太网等现代计算机技术的诞生地)。但通常情况下,你会拥有一个非常优秀的产品公司和一个非常糟糕的研究实验室。
我们非常幸运,OpenAI这个小型产品公司可能是有史以来增长最快的科技公司之一。但这很容易掩盖研究的魔力,而我绝不想看到这种事情。
我们为了开发AGI、超级AI以及随之而来的所有事物而存在。在实现这些目标的过程中,我们会遇到很多美妙的事情,其中任何一件都会一定程度上分散注意力。我认为,不被分散注意力至关重要。
十、AI的五个等级能更好定位进展,能出色完成重要工作才算AGI
问:作为公司领袖,你好像已经不再公开谈论AGI,反而开始讨论AI和AI等级的差异。但作为个体,你还会谈论AGI。
我觉得“AGI”已经成为一个非常模糊的术语。如果你看了我们定义的AI五个级别,你会发现每个级别的AI都有人称其为AGI。我们希望通过这些级别,更具体地了解我们所处的位置和进展情况,而不是简单地讨论是否已经达到AGI。
问:什么时候你会说,“好吧,我们已经达到AGI的水平了”?
我大致的标准是,一些重要岗位上熟练工能够完成的工作,AI也能完成,这时我会称之为AGI。接下来还有许多后续问题,比如,是完成整个工作还是仅部分工作?它是否能够从一个计算机程序转变为一名医生?它能否达到领域内最优秀的人才的水平,或者仅仅是前98%的人才?它的自主性有多高?这些问题我还没有深刻、精确的答案。但如果你能雇用AI作为远程员工,它能出色地完成软件工程师的工作,我想很多人会说,“好吧,这像个AGI的样子了”。
现在我们要改变现状,这就是为什么这个问题很难,但我会坚持上面的答案。当我想到超级智能时,对我来说最关键的一点是,这个系统能否极大加快地球上科学发现的速度。
十一、搜索、看病的用户倾向帮助产品规划,定价策略也结合用户反馈
问:你们现在已经有超过三亿用户。他们哪些行为改变了你对ChatGPT的理解?
跟大家讨论他们使用ChatGPT的目的、不使用ChatGPT的原因,这对我们的产品规划非常有帮助。一个以前经常出现的问题是,很明显人们总想把ChatGPT当做搜索引擎,而这其实不是我们最初发布时的意图。那时它在搜索方面表现很差,但显然这是一个需要开发的重要功能。
坦白说,自从我们在ChatGPT中引入搜索功能后,我几乎不再使用Google了。在发布ChatGPT之前,还处于内部原型阶段时,我从来没想到我会用ChatGPT搜索而不用Google。
另一个从用户那里学到的东西是:人们非常依赖ChatGPT获取医疗建议。OpenAI的许多员工都收到过非常暖心的邮件,比如有人说:“我生病很多年,但没有医生能告诉我病因。我最后把所有症状和检测结果输入ChatGPT,它告诉我患有一种罕见疾病。我去找医生,他们按照这种病治疗我,现在我完全康复了。”这是一个极端的例子,但类似的事情经常发生,这告诉我们人们需要医疗建议服务,我们应该进一步开发这方面的功能。
问:你们的产品有很多不同的定价,从免费到20美元到200美元——彭博社报道可能会有2000美元的级别。你们是如何为这种前所未有的技术定价的?是市场调研还是凭感觉?
我们最初免费推出了ChatGPT,然后人们开始大量使用,我们必须得找到一种支付方式。我记得我们测试了两个价格,20美元和42美元。人们觉得42美元有点贵,但20美元可以接受,所以我们选择了20美元,大概是在2022年12月底或2023年初。这并不是一个严格的“雇人做定价研究”的过程。
我们还考虑了其他方向。很多客户告诉我们,他们希望基于使用量的定价。比如,“有些月份我可能需要花费1000美元的计算费用,有些月份我希望花费很少。”我上了点年纪,记得拨号上网时代,AOL提供每月10小时或5小时的套餐。我讨厌那种计时的感觉,所以不想要那种氛围。但我可以想象其他一些基于使用量的定价方式是有意义的。
十二、 OpenAI的安全流程亟待简化,更新产品、不断学习是应对风险的最好策略
问:你们的安全委员会现在是什么样的?在过去的一年或18个月里发生了哪些变化?
一个有点让人困惑的问题是——对我们内部来说也是如此——我们有许多不同的安全小组。所以我们有一个内部的安全咨询小组(SAG),负责系统的技术研究并提出意见;有一个SSC(安全和安保委员会),是董事会的一部分;还有一个与微软合作的部署安全委员会(DSB)。所以有一个内部小组,一个董事会小组和一个微软联合委员会,我们正在努力简化这个流程。
问:三个小组你都有参与吗?
这是个很好的问题。SAG向我提交报告,但我不认为我是其中的正式成员。流程是:SAG制作报告,发给我;我大致敲定:“好吧,我同意”或不同意,然后提交给董事会。我不是SSC的成员,我是DSB的成员。现在我们对安全流程有了更清晰的认识,我希望找到一种简化流程的方法。
问:你对实际风险的看法是否有所变化?
我对短期、中期和长期风险的看法基本没有变化。我仍然认为在网络安全和生物方面,我们会看到严重或潜在的严重短期风险,需要加以舒缓。从长远来看,当你考虑开发一个拥有超强能力的系统时,可能有一些风险是难以精确想象和建模的。但我也可以同时认为这些风险是真实的,也相信唯一能适当应对风险的方法是发布产品并从中学习。
十三、o3模型突破ARC-AGI难题,与英伟达合作努力搭建芯片供应链
问:对于未来短期内的发展,业界似乎已就三种潜在的障碍达成共识:模型扩展、芯片稀缺和能源稀缺。我知道三者是互相关联的,但你能按你的关注程度排序吗?
对每一个类别,我们都有一个我自认为不错的计划。在模型扩展方面,我们要继续在技术进步、能力进步和安全进步方面取得进展。我觉得2025年将是令人难以置信的一年。你知道ARC-AGI挑战吗?五年前,ARC-AGI小组设立了这个奖项,作为AGI的北极星目标。他们想要设立一个他们认为很难的基准线,而我们将在周五宣布的模型(Model o3)通过了ARC-AGI基准线。
五年来,ARC-AGI基准测试一直无人能解*。它包括这样的难题(指ARC-AGI网站上显示的抽象网格)。他们说,如果你能在这个基准测试中得分85%,会被认为“通过”。我们的系统——没有进行任何专门优化,仅仅直接拿来测试——得到了87.5%的分数。我们有非常有前景的研究和更好的模型,这些都即将发布。
我们一直在努力搭建整个芯片供应链,所有的合作伙伴都在努力。有人专门给我们建造数据中心、制造芯片,我们有自己的芯片研发团队。我们与英伟达建立了非常和谐的合作关系,英伟达是绝对是一家超级好的公司,我们在明年(的采访中)可以更详细地讨论这个事,但现在是我们进一步扩大芯片规模的时候了。
*阿尔特曼打开了ARC-AGI网站,上面显示了一系列令人困惑的抽象网格。抽象是关键;要“解决”这些网格并实现AGI,AI模型必须更多地依赖推理而非数据训练。
▲英伟达首席执行官黄仁勋,摄于2024年11月13日东京的一个活动现场。(图源:Kyodo/AP Images)
十四、核聚变是解决能源问题的最优解,捐赠百万总统基金只因爱国
问:那么能源问题……
核聚变会很有用的。
问:核聚变会很有用。嗯,大概要过多久呢?
很快。嗯,很快就会有净增核聚变(net-gain fusion)的展示。接下来得建立一个不会出问题的系统,得把它扩大规模,得搞清楚怎么建造一个工厂——建很多工厂——而且你还得获得监管批准。这些加起来可能需要几年时间吧?但是我预计Helion会很快向大家证明核聚变是可行的*。
*Helion 是由阿尔特曼和Dustin Moskovitz、Reid Hoffman共同创办的清洁能源初创公司,专注于开发核聚变。
问:短期内,有没有办法在不违背气候目标的情况下维持AI的增长?
有的,但我认为没有什么是比快速批准核聚变反应堆更好的选择。我认为我们这种核聚变方法实在太好了,我们应该全力以赴地实现核聚变供能,一劳永逸。
问:你刚才说的很多内容都涉及到政府,而我们即将迎来一位新总统。你个人为总统就职基金捐赠了100万美元,为什么?
他是美国总统,我支持任何一位美国总统。
问:我理解为什么要让OpenAI看起来支持一位著名的“记账总统”,谁支持了特朗普,他都会一笔一笔记下来。但这100万美元是个人捐款,而特朗普反对你之前支持的很多事情。我是不是错误地认为,这笔捐款更像是效忠特朗普而非爱国行为?
我不支持特朗普做的所有事情、他说的所有话、或他认为的所有事情,我也不支持拜登说的或做的所有事,但我确实支持美利坚合众国,为了国家的利益,我会在我有能力的范围内与任何总统合作。特别是为了我自以为这个影响深远的时刻,我必须超越任何具体的政治利益。
我认为AGI很可能会在特朗普的任期内开发出来,所以为这件事铺好路非常重要。相较之下,我认为支持就职典礼是件小事,不管怎么看,我都不觉得这是什么重大的决定。但我认为,我们都应该盼望着美国总统取得成功。
问:他说他讨厌《芯片法案》,而你支持《芯片法案》。
我其实并不支持《芯片法案》,只是觉得这总比什么都不做好。这也不是我们应该做的事,但我认为这个法案会给后续行动带来更好的机会。我也不觉得《芯片法案》的效果达到了大家的预期。
十五、马斯克不会假公济私,与马斯克的合作也还算愉快
问:马斯克显然会在本届政府中扮演发挥作用。他在起诉你,同时与你竞争。我看到了你在《DealBook》上的评论,你认为他不会利用自己的地位在AI方面进行不正当竞争。
我确实这么认为。
▲特朗普与马斯克在UFC 309赛事期间,摄于2024年11月16日纽约麦迪逊广场花园。(图源:Chris Unger/Zuffa LLC)
问:不过,容我多说一句:过去几年,他购买了Twitter,然后又起诉要退出收购Twitter;他重新解禁了亚历克斯·琼斯(Alex Jones)*,挑战扎克伯格进行铁笼赛*,这些只是冰山一角。所以,你真的相信他会——
哦,我认为他会坏事做绝,会继续起诉我们,发起新诉讼,或者做别的什么。他还没挑战我进行铁笼赛,但我觉得,他也没那么认真地想在铁笼赛里打赢扎克伯格,结果证明他确实没那么认真。
正如你所说的,他说了很多话,开始了很多事,又撤回了。起诉,反起诉,与政府发生冲突,被政府调查,这就是马斯克的风格。问题是,他会不会滥用自己作为“共同总统”或者现在他自己称之为什么官职的政治权力来干扰商业竞争者?我认为他不会这么做,我真心认为不会,未来的事也可能证明我是错的。
*Alex Jones是美国极右翼的阴谋论者和媒体人,因散布虚假信息而被多次起诉。马斯克在收购Twitter后,解除Jones的账户封禁。
*铁笼赛(Cage match)是一种摔跤比赛形式,比赛场地是一个金属铁笼,选手必须在比赛中克服对方并逃出铁笼才能获胜。
问:当你和他一起工作的时候,你会怎么形容你们之间的关系呢?
也许可以说是精神互补吧。我们不完全知道AI会成为什么样子,或者我们会做什么,或者AI会如何发展。但我们有一个共同的信念,那就是发展AI很重要,这是推进的粗略方向,由此也知道如何调整方向。
问:我很想知道你们的实际工作关系是怎样的。
除了让马斯克离开那次,我不记得我们之间有任何大的冲突。在那次冲突爆发前,尽管有很多人说他如何训斥别人、如何大发雷霆等等,但我自己并没有经历过这些。
问:他能从中东筹集到那么多资金给xAI,你惊讶吗?
不,完全不。中东那边有很多资金,是业内人都想要的。但马斯克就是马斯克。
问:假设你是对的,马斯克和政府有推动AI发展的意图。那么,在2025年,特朗普政府能为AI做的最有帮助的事是什么?
美国本土的基础设施建设,大规模建设。我非常同意总统的观点,现在在美国建东西真的是太难了,无论是电厂、数据中心,还是其他类似的设施。我理解官僚体制拖拖拉拉的原因,但这对国家整体没有帮助,特别是对AI发展不利。
来源:彭博社