(来源:MIT Technology Review)
OpenAI 正在强化其在美国的政治影响力,尤其是在 AI 政策方面。
根据 OpenAI 近日提交的一份新文件披露,这家公司 2024 年在政府游说方面的支出达到 176 万美元,而仅在去年最后三个月就花费了 51 万美元,这一数字比 2023 全年还要高,当时 OpenAI 在这方面的支出仅为 26 万美元。这表明 OpenAI 希望积极参与塑造政府对于人工智能政策的新规则。
为了加强与政府的沟通,OpenAI 专门聘请了前参议员 Lindsey Graham 的助理 Meghan Dorn 担任公司内部游说官,并于 10 月份开始在 OpenAI 任职。
该文件还显示公司在去年底参与了两项新的立法活动:众议院的《人工智能进步与可靠性法案》,该法案旨在建立政府 AI 研究中心,以及参议院的《未来人工智能创新法案》,此法案旨在制定统一的 AI 性能标准。
尽管 OpenAI 未对游说活动发表评论,但从这些行动可以看出,它正积极地参与到政治中以确保其“声音”能够被听到,并且在新的 AI 法规制定过程中扮演关键角色。虽然 OpenAI 的游说预算相较于其他科技巨头来说相形见绌(Meta 在游说支出排行榜上名列前茅,2024 年超过 2400 万美元),但它的参与标志着 AI 正在成为政策讨论中的一个核心话题,并且随着共和党在华盛顿的影响增强,OpenAI 及其他 AI 公司正在帮助塑造 AI 技术的未来方向。
在过去几年中,面对由深度伪造和虚假信息引发的风险,AI 政策的制定像是玩“打地鼠”游戏一样,发现一个问题就解决一个问题。然而,近一年来,AI 企业如 OpenAI 已经开始强调 AI 技术对于国家安全和美国在全球市场上的竞争地位的重要性,认为政府应该大力支持 AI 的发展。这使得 OpenAI 和其他 AI 公司有可能获得更加廉价的能源供应、获得利润丰厚的国家安全项目合同,以及一个不必过分担心 AI 安全细节的宽松监管环境。
尽管各大 AI 公司在这一观点上基本达成了一致,但在其他议题上仍然存在分歧,这些分歧在最近的事件中有所显现,比如在特朗普就职典礼期间。
AI 监管措施真正开始实施是在 2022 年 11 月 ChatGPT 推出之后。彼时,业界讨论的焦点主要集中在 AI 的责任问题上,例如,如何应对其可能产生的不良影响,包括性骚扰性质的深度伪造图像和选举中的虚假信息。OpenAI 首席执行官奥尔特曼较早地表明了自己支持负责任开发 AI 的态度,并赢得了公众的好感。
为了加强与政府的关系,OpenAI 自 2023 年 10 月起正式启动了游说活动,聘请了曾在参议院司法委员会任职并有微软游说背景的 Chan Park 领导这项工作。鉴于当时参议院多数党领袖 Chuck Schumer 对限制 AI 滥用的关注,OpenAI 还聘请了他的前法律顾问 Reginald Babin 加入游说行列。此外,去年夏天,OpenAI 任命了经验丰富的政治策略家 Chris Lehane 为全球政策负责人。
OpenAI 过去的游说记录显示,该公司在去年重点关注了旨在防止 AI 造假和保护选举公正性的相关立法,比如《无伪造法案》和《保护选举免受欺骗性人工智能法案》(这些法案未能成为法律)。随着时间推移,AI 公司的监管目标逐渐转向了能源领域,这是因为它们认识到能源成本对 AI 发展的关键作用。
能源供应
去年 9 月,奥尔特曼与英伟达、谷歌和 Anthropic 等多家科技公司的负责人一同拜访了白宫,他们提出了一个大胆的设想:为了保证美国在人工智能领域的全球领先地位,需要政府资助建设强大的能源设施来支持顶级 AI 模型的训练。奥尔特曼建议建造多个巨型数据中心,每个数据中心的电力需求都堪比整个纽约市的用电量。
与此同时,其他公司比如 Meta 和微软开始重视核能在 AI 发展中的作用,纷纷宣布投资新的核电站。显然,OpenAI 早就在为此做准备。去年 4 月,公司请来了说客 Matthew Rimkunas,他不仅有着长期为参议员 Lindsey Graham 工作的背景,还曾参与过比尔·盖茨的绿色能源项目。Matthew Rimkunas 的专业背景使他在处理涉及核能的安全法规方面更具优势。
随着 AI 被看作是国家安全以及与中国竞争的重要工具,一场围绕 AI 能源的新竞赛逐渐展开。OpenAI 在去年 10 月发表的一篇博客中强调了 AI 对于民主社会的重要性,并在 12 月改变方针,扭转了反对与军方合作的政策,通过与 Anduril 这样的国防科技公司联手,利用 AI 提高军事基地的安全防护能力。
同月,奥尔特曼在接受《自由报》采访时表示拜登政府在引导人工智能方面“效率不高”,认为未能充分关注到建立美国本土的 AI 基础设施和供应链的问题。然而,他的言论没有提及《芯片与科学法案》,这项 520 亿美元的投资计划旨在促进国内半导体产业的发展,这至少在纸面上与奥尔特曼的愿景是契合的。而且,拜登最近签署的一项行政命令也显示了政府愿意配合提供必要的资源,比如允许使用联邦土地来建设奥尔特曼所提议的巨型数据中心。
内部矛盾
奥尔特曼的立场无意间让他与特朗普总统和硅谷之间的合作趋势保持了一致。在本周一的特朗普就职典礼上可以看到多位科技界的领军人物,比如扎克伯格、马斯克、贝佐斯以及皮查伊等,他们都坐在特朗普家族的正后方,奥尔特曼也出席了此次盛会。值得注意的是,这些科技大佬们还慷慨解囊,向特朗普的就职基金捐赠了大量资金,奥尔特曼本人也捐出了 100 万美元。
很大程度上,就职典礼似乎是这些科技领袖彼此之间以及与特朗普阵营结盟的一个“证据”。尽管如此,科技界内部及与特朗普阵营之间仍然存在一些分歧。例如,围绕 H-1B 签证的争议,该签证允许非美国公民的 AI 研究人员在美国工作。马斯克和前政府效率部门成员 Vivek Ramaswamy 主张扩大此签证计划,却遭遇了来自特朗普阵营部分成员,像 Steve Bannon 等人的强烈反对。
此外,关于 AI 是否应该开源的争论也在延续。谷歌和 OpenAI 倾向于保持其顶级 AI 模型的秘密性,以防不法分子利用。对此,马斯克此前曾提出法律诉讼反对 OpenAI 的做法,认为这不符合 OpenAI 的非营利性质。与此同时,Meta 公司的开源 AI 模型 Llama 选择支持马斯克的立场。在就职典礼几个小时候,特朗普阵营成员、风险投资家 Marc Andreessen 在社交平台 X 上呼应了这些批评,并指出开源 AI 模型可以减少过度的法规制约。
还有一点,关于偏见和言论自由的问题同样复杂。社交媒体公司对于内容审核采取了截然不同的策略,特别是 Meta 决定停止美国事实核查计划之后,人们开始质疑 AI 模型审核标准是否也会出现分歧。马斯克批评了一些 AI 模型过于“政治正确”,而 Marc Andreessen 则错误地认为“中国 AI 模型的审查较少”,实际上,中国政府对 AI 大模型及生成内容有着成体系的监管。奥尔特曼的态度更加模棱两可,他表示,要找到一个所有人都认同为完全无偏见的系统几乎是不可能的事。
随着特朗普政府开始执政,白宫已经迅速采取行动,撤销了前总统拜登签署的许多行政命令,包括对政府使用该技术制定规则的具有里程碑意义的人工智能命令,但保留了支持数据中心扩建的土地租赁政策。
与此同时,奥尔特曼也没闲着,近日 OpenAI 与甲骨文、软银计划联合投资 5000 亿美元成立一家合资企业,建立新的数据中心,这个项目由特朗普亲自宣布,而奥尔特曼就站在旁边。此外,据报道,奥尔特曼还将参加 1 月 30 日与政府官员的闭门会议,讨论 OpenAI 正在研发的强大 AI 智能体。
注:本文在原作基础上对内容进行了不改变原意的改写,并补充了相关内容。
1.https://www.technologyreview.com/2025/01/21/1110260/openai-ups-its-lobbying-efforts-nearly-seven-fold/