新智元报道
编辑:JNY
【新智元导读】最新一期TED采访中,奥特曼重申对OpenAI率先发布AGI的信念,并称没有多少人会关心。全程45分钟,他还重点分享了自己对AI未来的独特看法。
奥特曼再谈AGI信念!
最近,奥特曼在一期采访中坚定地表示,「OpenAI将第一个发布AGI,并没有人多少人在意」。
他承认,当AI变得更加自主,能够完成通常需要整个组织,才能实现的任务时,自己并不知道那一刻会发生什么。
「届时,人类或许需要一个新的模型」。
在最新一期TED对谈中,奥特曼与主持人Adam Grant探讨了AI在创造力、同理心上的进步,以及面临的伦理挑战和人类监督的作用。
近一个小时采访中,奥特曼的精彩视角包括:
AI是一场工业革命,而非互联网革命。
o1进步让人不寒而栗,过去能够区分人类和AI的某些技能,如今已被超越
人类无法从AI中获得归属感,也能难从AI身上获得被尊重的感觉。
我们还处在探索人类与AI如何协作的早期阶段
最新的模型在各方面都比他聪明,但奥特曼关注的重点依旧和往日一样,或许工作效率能得到提高。
未来最重要的能力是,提出好题比给出答案更重要。
人类需要为AI制定规则,但没有历史经验值得借鉴。
未来,AI可能变成独特的信仰。
AI是一场工业革命,不是互联网革命
Q:你对AI这么快超越人类许多能力感到惊讶吗?
奥特曼:我们最新的模型感觉几乎在各方面都比我聪明,但这并没有真正影响我的生活。
我仍然关心和以前一样的事情,我的工作效率可能提高了一点,也许很多。
我假设随着社会消化这项新技术,社会会发展得更快,科学进步肯定也会更快,我们正在与这个惊人的新工具共存。
但你的日常生活和几年前相比感觉有多大不同?其实没那么不同,对吧?
我认为从非常长远的角度看,AI确实会改变一切。
但十年前我天真地认为,当我们拥有像现在最强大的模型时,一切都会改变,现在我觉得那是天真的看法。
Q:这是标准模式:我们高估短期变化,低估长期变化,对吧?所以你对此应该深有感悟。
奥特曼:最终,我认为整个经济都会转型,我们会找到新的事情去做,我对此一点也不担心。
我们总会找到新工作,尽管每次面对新技术时,我们都假设所有工作都会消失。确实有些工作会消失,但我们会找到更多新的事情去做。
Q:每个人都相信AI是颠覆性的,但没人知道这对领导力、工作、组织、产品和服务意味着什么。
奥特曼:从这个意义上说,它更像是工业革命,而不是互联网革命。
我们不知道这会如何发展,但我认为我们也可以说很多关于如何发展的东西。
我有几个高层次的假设,一个是我们将停止重视能力,开始重视人类的灵活性。我觉得弄清楚要问什么问题会比找出答案更重要。
Q:这与我过去几年中的观察一致,我们过去很看重大脑知识的积累量,一个人存储的知识越多就显得越聪明,也更容易获得尊重。而现在我认为,做点的连接者比知识的收集者更有价值。
如果你能综合并识别模式,你就有了优势。
你看过《太空堡垒卡拉狄加》(Battlestar Galactica)这部电视剧吗?剧中反复说的一句话是「这一切都发生过,这一切还会再次发生」。
当人们谈论AI革命时,我确实觉得它在一些超级重要的方面有质的不同,但也让我想起以前的技术恐慌。
小时候,大孩子们告诉我,老师们开始禁止用谷歌。
他们觉得如果你能查到每个事实,那去历史课记事实有什么意义呢?我们会失去一些教育孩子以及怎样成为社会负责任成员的重要东西。
如果你可以立即查到任何事实,甚至不需要发动汽车去图书馆翻卡片目录找书。
但实际上发生的是,我们有了更好的工具,期望提高了,但人的能力也提高了,我们学会了做更难、更有影响力、更有趣的事情。
我期待AI也是这样。
如果几年前你问某人:A. 2024年会有像o1这样强大的系统吗?B. 如果有个预言家告诉你你错了,会有这样的系统,世界会改变多少?你的日常生活会改变多少?我们会面临生存危机吗?
几乎每个被问到的人都会说,A肯定不会,但如果我错了,真的发生了,那我们在第二个问题上就完蛋了。
然而,这个惊人的事情发生了,我们现在就在这里。
Q:对于研发科学家来说,当他们有AI协助时,提交的专利增加了39%,这导致产品创新增加了17%。其中很多是突破性的,比如发现新的化学结构。
如果你是处于底部的三分之一科学家,几乎没有什么好处,但顶尖科学家的生产力几乎翻倍。这种翻倍似乎是因为AI自动化了很多创意生成任务,让科学家能把精力集中在创意评估上,优秀的科学家很擅长识别有前景的创意,而差的科学家容易被误导。
但这也有代价,研究中82%的科学家对工作满意度降低了,他们觉得自己做的创意工作变少了,技能没有得到充分利用。人类在这种情况下似乎被简化为评判者,而不是创造者或发明者。我很想知道你如何看待这些证据,以及我们该怎么办?
奥特曼:我有两个相互矛盾的想法。
对我个人来说,在OpenAI发生的最令人满足的事情之一是,当我们发布这些新的推理模型时,我们把它们交给传奇科学家、数学家、程序员等等,问他们怎么想。
听到他们讲述他们可以用新的方式工作,我确实从中获得了最大的职业乐趣——不得不真正创造性地推理一个问题,找出以前没人解决的答案。
我期待现实中会发生的是,我们会以新的方式解决难题,积极参与解决最难的问题,同时带来快乐。
Q:你如何使用ChatGPT解决工作中面临的问题?
奥特曼:老实说,我用它的方式很无聊。
我不是用它来帮我提出新的科学想法的人,而是用它来处理电子邮件,或者帮我总结文件,这些都很无聊的事情。
在AI身上,人类找不到归属感
Q:另一个我原本期望人类能保持优势更久的领域是同理心。我读过的最喜欢的实验表明,如果你在进行文本对话,不知道对方是人类还是ChatGPT,事后被问到你感觉被看到多少、被听到多少、得到了多少同理心和支持,你会觉得从AI那里得到的同理心和支持比从人类那里多——除非我们告诉你那是AI,然后你就不再喜欢了。
作为心理学家,我看到这些证据有几个反应。一个是我认为不是AI在同理心上有多好,而是我们人类默认的同理心很差,太容易陷入自我对话的陷阱。
但我也想知道,这种「如果我知道是AI我就不想要」的心态能持续多久。
奥特曼:让我先谈谈一个普遍现象:人们有时更喜欢AI的输出,直到被告知那是AI,然后就不喜欢了。这种情况反复出现。
我最近看到一项研究,即使是那些声称最讨厌AI艺术的人,在选择他们最喜欢的作品时,仍然更多选择了AI的输出,而不是人类的,直到他们被告知哪个是AI哪个不是,然后就变了。
我们可以举出很多例子,但这个趋势是AI在很多方面赶上了我们,然而我们天生更关心人类而不是AI。
我认为这是个很好的迹象。
尽管你可能会比现在更多地和AI对话,但你仍然会非常在意什么时候在和人类对话,这是生物学、进化历史和社会功能的深处的东西。
Q:你为什么认为我们仍然想要人类连接?这听起来像是Robert Nozick论点的一个版本,人们更喜欢真实体验而不是模拟的快乐。
你认为这就是我们渴望的吗?我们只是想要真实的人际连接,即使它有缺陷和混乱——当然AI也会学会模拟这些。
奥特曼:你会很快发现,和一个完美无瑕、绝对有同理心的事物对话久了,你会怀念戏剧性、紧张感或其他东西。
我认为我们天生就很在意别人怎么想、怎么感受、他们如何看待我们,我不认为这能转移到AI上。
我觉得你和AI的对话可能很有帮助,你会感到被认可,那是一种很好的娱乐,就像玩电子游戏是一种很好的娱乐,但我不认为它能满足成为群体、社会一部分的那种社交需求,至少对我们来说是这样。
我可能错了,也许AI能完美地操控我们的心理,那就真的会让我很难过。
Q:你说得对,AI很难替代归属感,也很难从AI那里获得地位,感觉自己重要、酷或被尊重,我们依赖其他人的目光和耳朵来实现这些。
奥特曼:我其实是想说,我能想象不久的将来,AI会变得比我们厉害得多,能干出各种厉害的事儿。
当我想到那个世界,再想想里面的人,我觉得大家还是会很在意其他人,会老想着跟身边人比地位啊、玩些小把戏什么的。
不过,我觉得没多少人会拿自己跟AI比,看AI能干啥。因为我们还是更在意人和人之间的那些事儿。
Q:我一直很好奇的一件事是,在信息越来越有争议、事实越来越难以说服人的世界里——比如在阴谋论信念数据中看到的,人们相信阴谋论是因为这让他们感到既独特又重要,觉得自己掌握了别人不知道的知识。
当然这不是唯一原因,但这是主要驱动因素之一。这意味着另一个人类很难说服他们放弃这些信念,因为这等于承认自己错了。
我对最近一篇论文很着迷,是Marie Joachim、Itziar Castelló和Glenn Parry的研究。
论文链接:https://openaccess.city.ac.uk/id/eprint/33542/1/Full%20BAS-23-0246%20RnR3_to%20share.pdf
他们表明,如果和AI聊天机器人进行对话,甚至几个月后,它基本上能让人们不再相信很多阴谋论的说法。
奥特曼:它首先针对你相信的一个错误说法进行驳斥。
我认为它之所以有效,部分是因为它能针对附着在信念上的具体理由,部分是因为没人会在机器面前在意自己看起来像个白痴,而在人类面前则会。
大约20%的人不仅在交流后几个月,放弃了荒谬的阴谋信念,连AI没针对的一些信念也放弃了。
Q:所以我觉得AI打开这扇门很令人兴奋.
显然这既可以用于好事也可以用于坏事,但我很好奇听听你对这个新机会的看法,我们可以用这些工具纠正人们的误解。
奥特曼:世界上有些人能做到这一点,能以某种方式扩展人类的思维。
这很强大,只是这样的人不多,能和他们交谈是一种难得的机会。
但如果我们能制造一个AI,就像世界上最好的嘉宾,超级有趣,无所不知,对你非常感兴趣,愿意花时间了解如何推动你的思维走向新方向,那对我来说似乎是件好事。
我也有过和AI的这种体验,就像和真正重要的人类领域专家交谈,改变了我的世界观。
当然真人也能做到,但我当时没和他们在一起。
Q:这显然也引发了很多关于幻觉问题和准确性的问题。作为外行,我很难理解为什么这是个难题,你能用非计算机科学家能理解的方式解释一下吗?
奥特曼:我觉得很多人还停留在GPT-3时代,那是2021年的老黄历了:那时候AI都不怎么管用,确实有很多幻觉。
如果你用现在的ChatGPT,它还是会有些幻觉,但我觉得它总体上相当稳健。这挺令人惊讶的。
训练这些模型时间,会根据它们之前见过的所有词进行预测,训练集中有很多错误信息,有时候模型也没能像期待的那样泛化。
教会模型什么时候应该自信地说它不知道,而不是猜测,这仍然有待研究。
但它正在变得更好,新推理模型在这方面也有很大进步。
我的孩子,永远不会比AI聪明
Q:在ChatGPT的各种版本中, 我提示过AI,比如「这是真的吗?请确保这是准确的答案」。
这应该作为算法迭代中的必要步骤内置进去。那么我们是不是朝着这个方向前进,这会成为模型的自动设置吗?
奥特曼:我认为这会成为过程的一部分,我觉得还有很多其他东西也会让它变得更好,但那会是其中一部分。
Q:最近有些全新研究,过去一两年里有很多这类研究。
但上周让我震惊的一项是,当你比较单独的AI和单独的医生时,AI当然会胜出,但AI也击败了医生+AI团队。我对这些证据的解读是,医生没有从AI助手中受益,因为他们在不同意时会推翻AI的判断。
奥特曼:在历史上,上演过同样的一幕。比如AI开始下棋时,有段时间人类更强,然后AI更强。
然后有一段时间(忘了多久)「AI+人类」一起,比单独的AI强,因为他们能带来不同视角。
然后到了某个时候,AI又比「AI+人类」强,因为人类会推翻AI的决定,犯下他们没有意识到的错误。
如果你把自己看作在所有情况下都要推翻AI决定的角色,那AI就不管用了。
另一方面,我认为我们还在早期阶段,还在弄清楚人类和AI该如何合作。
AI会比人类医生更擅长诊断,这可能不是你想反驳的。
但人类在很多其他方面会做得更好,或者至少患者希望由人来做,我认为这会很重要。我一直在想很多这方面的事。
我很快要有个孩子了,我的孩子永远不会成长到比AI聪明。即将出生的孩子们,他们知道的唯一世界就是存在AI的世界,这会很自然。
AI比人类聪明,当然它能做人类做不到的事,但谁真的在乎呢?
Q:所以我觉得我们这一代只是这个过渡期,有点奇怪。
在某些方面这是谦逊的力量,我认为这是好事。另一方面,我们还不知道如何与这些工具合作,也许有些人依赖它们太快了。
奥特曼:我不会拼写复杂的单词了,因为我相信自动更正会救我,我觉得这没问题。我觉得对这些事情产生道德恐慌很容易,即使人们更依赖AI帮他们表达思想,也许这就是未来。
Q:我见过学生不愿意在没有ChatGPT的情况下写论文,因为面对空白页或闪烁的光标,我确实觉得有点依赖性。对如何防止这种情况,你有什么想法吗,或者这就是未来,我们应该习惯?
奥特曼:我不确定这是我们应该防止的事情。
对我来说,写作是利用外部信息的思考(outsourced thinking),很重要。
但人们用一种更好的方式替代思考,用一种新的写作方式,这原则上似乎没问题。
有人会写下想对别人说的要点,让ChatGPT把它写成多段的漂亮邮件,发给别人。然后接受到邮件的那个人会把邮件放进ChatGPT,说「告诉我三个关键要点是什么」。
这个流程很常见,但我觉得这很傻。所以写作和沟通中,有些残留的形式主义可能已经没多少价值了。
我很乐意看到社交规范进化到每个人都可以直接发要点给对方。
Q:我真的想要一个水印或至少一些内部记忆,让ChatGPT能回复道:「嘿,这是AI生成的,你应该回去告诉写信人你想要重点,这样你们以后能更清楚地沟通」。
奥特曼:变得更出名的一件悲哀的事是,我如果不能把每件事都表达得完美,那对我或OpenAI几乎没什么好处,却迎来了攻击或其他什么,这真是个遗憾。
Q:我确实觉得这是你失去的一种特权,你无法公开地即兴发挥、天马行空, 表达部分错误或不完整想法。
奥特曼:大部分都是错误但有些宝石在里面,但那是我追求的。
Q:话虽如此,你比一些不进行自我反思或自我控制的同行更谨慎,我们有些人很感激你。
奥特曼:好吧,那是另一回事。如果只是说做个深思熟虑、小心谨慎的人,我觉得更多人应该这样做。我认为部分原因是很多人适应这些AI工具很慢。
不搞研究,只做决定
Q:被自己创立的公司解雇,是什么感觉?
奥特曼:那就像是一种超现实的迷雾,困惑是最初的主导情绪,然后是挫折、愤怒、悲伤、感恩,各种情绪都有,就像是人类情感的完整范围,相当令人印象深刻。
Q:那48小时内你是怎么处理这些情绪的?
奥特曼:老实说,有太多事情要处理,以至于没有太多时间去处理任何情绪。所以在那48小时里没怎么处理,然后就重新投入工作。
Q:我记得史蒂夫·乔布斯(Steve Jobs)在被苹果公司逼走多年后说过,那是一剂味道很糟的药,但我猜病人需要它。这跟你有任何关联吗,还是情况完全不同?
奥特曼:我觉得这跟史蒂夫·乔布斯的情况完全不同,而且整个过程太短了,就像一场非常奇怪的梦,然后就回去工作,收拾残局。
Q:你学到了什么教训?
奥特曼:我学到了很多下次会做得不一样的东西,关于我们在那个过程中以及之后如何沟通,以及需要直接、清楚地说明正在发生的事情。
我觉得很长一段时间里,OpenAI上空笼罩着一片怀疑的云雾,我们本可以做得更好。
我知道我和很棒的人在一起工作,团队在危机中、在充满不确定性的压力情况下表现很好。
其中一个让我最骄傲的时刻是看着执行团队在我不在的时候运作公司,他们中的任何一个都能完美地管理公司。我为挑选这些人、为在某种程度上教导他们感到非常骄傲,也为公司处于一个非常强大的位置感到骄傲。
Q:听到你这么说我很惊讶,我原以为你最骄傲的时刻会是多数员工们站在你身后给予支持。作为一名组织心理学家,看到内部这么多的忠诚和支持,我觉得那太惊人了。
奥特曼确实感觉很好,但那不是让我印象最深刻的事情。
Q:我猜这也很像乔布斯,当他被问及最骄傲的成就时,不是Mac、iPod或iPad,而是打造这些产品的团队。
奥特曼:我不做研究,也不开发产品,我会做一些决定。
我能打造的是公司,所以这当然是我感到自豪的东西。
在OpenAI,度过怎样的一天
奥特曼:这是个好问题。不知怎的,早晨通常从不那么混乱,但到了下午往往一切都脱轨了。
会有很多事情发生,有点处于反应模式和救火模式。
所以我学会了在一天早些时候完成真正重要的事情。
我大部分时间都在思考研究、计算和我们开发的产品,其他方面花的时间少一些,但具体是什么样子随时都可能不同。
以后的社会:机器货币
Q:我们看到了一些非常有趣的人类独创性。我脑海中浮现的证据是Sharon Parker和她的同事们的一项研究,在机器人技术领域。
他们进入一家制造公司,开始用机器人替代人类。员工们没有恐慌他们会失去工作,而是说我们需要找到独特的贡献,我们需要在工作中找到意义,他们通过智胜机器人实现了这一点。
他们研究机器人,找出它们不擅长的,然后说「好,我们要把这个变成核心竞争力」。
我觉得o1和推理的进步很可怕,因为我们去年认为能区分我们的很多技能现在已经过时了,比如2023年很多人用的提示技巧不再相关,有些永远不会再需要。那么50年、100年或1000年后人类是干什么的?
奥特曼:没人知道,但我认为更有意思的答案是思考当下人类有何作用。我觉得人类对其他人有用,而且我想这一点会始终如此
很多年前,Paul说过的一句话让我印象深刻。
在 OpenAI 创立之前,他就在思索,认为有一天会有「人类货币」和「机器货币」,它们是独立的货币体系,彼此毫无关联。
我认为这未必会真的发生,但我觉得这是个很深刻的见解。
Q:太有趣了,我从没想过机器会有自己的货币。
奥特曼:当AI发明出各种新事物、治愈疑难病症、实现核聚变,取得那些我们难以想象的巨大成就时,你会感到兴奋。
但那时,你在意AI具体做什么,还是在意你的朋友或同事做了什么?
我不确定,可能不会太在意。当然,也有人或许会在意,甚至有些人可能会对特定的AI产生奇特的崇拜。
不过我敢断言,到时候我们会惊讶地发现,人类依然以自己为中心。
快问快答:OpenAI第一个发布AGI
Q:好了,我想是时候来个闪电问答了.
奥特曼:这是我进入GPT-4模式而不是o1模式,我得尽可能快地回答下一个问题。
Q:第一个问题是,你最近在AI上重新思考或改变了什么看法?
奥特曼:我觉得快速起飞比我几年前想的更可能。速度多快很难推理,但可能是几年而不是十年。
Q:你认为人们在适应AI时得到的最差建议是什么?
奥特曼:说AI撞墙了,我觉得这是最懒惰的、不想思考的方式。对此,我只能眼不见心不烦。
Q:你最喜欢的适应建议是什么,或者你会给什么建议来适应并在AI世界成功?
奥特曼:这是个蠢问题,但显而易见的是使用这些工具。OpenAI 做的一件很酷的事是,我们推出了我们知道的当今世界上最强大的模型o1,任何人都可以用,只要每月付我们20美元。
如果你不想付20美元,你仍然可以用一个很好的东西。所以它就在那儿,全球领先的AI,最有能力的人,你可以接触到同样的前沿,我觉得这太棒了,去用它,弄清楚你喜欢什么,不喜欢什么,你觉得会发生什么。
Q:你对AI最热门或不受欢迎的看法是什么?
奥特曼:我觉得它不会像人们想的那么大,至少短期内不会,长期来看一切都会改变。
我有点真心相信我们可以推出第一个AGI,但没人会太在意。
Q:科技界的人在乎,哲学家在乎,这两个群体是我一直听到的这样的反应。
奥特曼:即便如此,他们真在乎,但20分钟后他们就在想今晚吃什么。
智能价格每年降10倍
Q:最后一个我想跟你聊的话题是伦理,我知道你也一直在思考,也谈论过多次。这是大多数人最不愿意外包给AI做判断的领域。
奥特曼:好,我觉得最终还是得靠人类。
我听到很多核威慑的比喻,比如我们得抢在对手前面,然后会有相互确保毁灭,等等。
但军备竞赛的比喻在这儿行不通,因为很多对手不是国家,他们面临的风险或后果不一样。
而且现在我们要信任私人公司而不是官员,这感觉很复杂,不太对应。
Q:跟我说说这个,你怎么思考伦理和安全问题?
奥特曼:首先,我认为人类需要制定规则。我们应当让AI遵循集体商定的规则,而且这些规则必须由人类来确定。
其次,我发觉大家的思考方式似乎难以摆脱以历史类比。我理解这一点,而且这也不完全是坏事。
然而,我认为这种方式存在一定弊端,因为历史与未来截然不同。
所以,我会鼓励大家尽可能依据现有的认知,将讨论的基础建立在AI与过去事物的不同之处,而非盲目猜测,进而设计出与之适配的系统。
我由衷坚信,部署AI,从而显著提升个体能力与个体意志,是应对当前状况的绝佳策略。
这远比某个公司、对手或个人掌控全球所有AI力量要好得多。
但我也欣然承认,我不知道当AI具备更强的主体性时会发生什么。
不是那种我们给它们布置一个任务,让它们编程3 小时的情况,而是它们能够去完成极为复杂、通常需要整个组织耗费多年时间才能完成的工作。
我怀疑我们需要再度探寻新的模型,我觉得历史无法提供有效的指引。
不,在软件领域,情况确实并非如此。我认为在美国,其他任何强大的技术都受到监管。相比之下,我觉得欧盟在立法监管方面或许更具优势。
奥特曼:我认为欧盟对 AI 的监管方式基于另一个原因也并无益处。
例如,当完成一个新模型时,即便它并非十分强大,在美国推出该模型的时间也会比在欧盟早很多,因为欧盟有一系列繁琐的监管流程。
如果这意味着欧盟在前沿技术应用方面总是落后几个月。
我觉得这只会让欧盟在构建技术流畅性、打造经济引擎、深化技术理解,以及推进其他相关事项上进展更缓慢。
所以,平衡监管力度是件极为棘手的事情,而且在我看来,显然需要一定监管。
Q:如果你要规划负责任的监管从哪儿开始,你会怎么做?
奥特曼:测试,就是测试和理解,我觉得这是个很好的起点。
至于人们能设计生物武器,可能还很便宜,那什么样的监管能帮我们?
奥特曼:我觉得今天用谷歌已经能做很多了。如果更强大、更容易做到这些,确实很重要,但我们有些监管措施,也许需要比现在更好,也许需要更严格。
Q:你展望未来十年左右,最担心什么?
奥特曼:我觉得是变化的速度。我真心相信人类能解决每个问题,但我们得很快解决很多问题。
在伦理及未来影响方面,一直令我纠结的一个问题是,我们原以为许多数字技术会带来平民化,至少能减少不平等现象,然而事实却常常相反。富人由于能够更好地接触并运用这些工具,从而变得更加富有。
你提到o1按美国标准而言价格较为便宜,但我认为在获取途径上仍存在差距。那么,要改变这种状况需要采取哪些措施呢?在发展中国家,「AI 向善」(AI for Good)又应呈现出怎样的形态呢?
奥特曼:我们每年能把AI的价格降低大约10倍。这虽然不能再持续太久,但已经持续好一阵子了。智能变得更便宜,我觉得这很惊人。
Q:不过某种程度上这也这个问题更糟糕。至少现在,能负担得起制造真正强大模型的只有政府和大公司,现在得负责训练它,但使用它完全不同。所以当你回顾过去三年,感觉像是经历了一生的变化,太奇怪了,为什么你要做这个?
奥特曼:我是个技术乐观主义者和科学迷,我觉得这是我能想象的最酷的事情,也是我能想象的最好的工作方式。
能参与我认为一生中最有趣、最酷、最重要的科学革命,TMD的太有优越感了,太不可思议了。
然后出于非自私的原因,我觉得对科学进步有种责任感:这就是推动社会进步的方式。
在我个人所能贡献的所有事物之中,我确信这件事对科学进步的推动作用最大,进而能够提升人们的生活水平,改善人类的体验质量,怎么叫都行。
我心中这份责任感并非负面的负担,而是饱含着感恩之情。我愿全力以赴,投身其中。
Q:听起来像是责任。随着孩子即将来临,作为即将成为父亲的人,你希望下一代看到什么样的世界?
丰饶是我脑海中第一个词,繁荣是第二个。
奥特曼:总体而言,我所憧憬的,是一个人们能够拥有更多作为、生活更加充实且美好的世界,无论我们各自对这些美好有着怎样独特的定义。
仔细想想,或许每一个即将成为父亲的人,对孩子的期许,本质上都是这样。
参考资料:
https://www.youtube.com/watch?v=c0NqpG--Pzw