(来源:MIT News)
人们对生成式 AI 充满期待,从提升工作效率到推动科学研究的进步。然而,尽管这项技术的迅猛发展推动了强大模型在多个行业的快速应用,随之而来的环境影响却仍难以量化,更不用说有效缓解。
训练拥有数十亿参数的生成式 AI 模型,如 OpenAI 的 GPT-4,需要强大的计算能力,这不仅消耗大量电力,增加二氧化碳排放,还会给电网带来额外压力。
此外,将这些模型部署到实际应用中,使数百万人能够在日常生活中使用生成式 AI 模型,并在开发完成后持续微调以优化性能,这些都将长期消耗大量能源。
训练、部署和微调生成式 AI 模型所使用的硬件依赖大量水资源进行冷却,这可能对市政供水系统造成压力,并影响当地生态系统。此外,生成式 AI 应用的激增推动了对高性能计算硬件的需求,从而在制造和运输过程中间接增加了环境负担。
“当我们讨论生成式 AI 的环境影响时,不能只是关注设备插上电源时消耗的电力。这些影响涉及更广泛的系统层面,并且会随着我们采取的行动而持续存在。”麻省理工学院材料科学与工程系教授 Elsa A. Olivetti 表示。她同时也是麻省理工学院新气候项目脱碳任务的负责人。
Olivetti 是论文“The Climate and Sustainability Implications of Generative AI”的资深作者之一。该论文由 MIT 研究团队共同撰写,作为该研究所范围内征集论文的一部分,旨在探讨生成式 AI 对社会的变革潜力,包括其正面与负面影响。
高耗能的数据中心
数据中心的电力需求是生成式 AI 对环境影响的核心因素之一。这些中心承担着训练和运行深度学习模型的重任,为 ChatGPT、DALL-E 等广受欢迎的 AI 工具提供支持。
数据中心是一种温控建筑,内部容纳计算基础设施,如服务器、数据存储设备和网络设备。例如,亚马逊在全球运营着 100 多个数据中心,每个数据中心约包含 50,000 台服务器,用于支撑其庞大的云计算服务。
尽管数据中心的概念自 20 世纪 40 年代以来就已存在(1945 年,宾夕法尼亚大学建造了全球首个数据中心,以支持首台通用数字计算机 ENIAC)。如今,生成式 AI 的崛起大幅加快了数据中心的建设速度。
“生成式 AI 的独特之处在于其极高的功率密度。本质上,它仍然是计算,但一个用于训练生成式 AI 的计算集群所消耗的能源可能是典型计算工作负载的七到八倍。”麻省理工学院计算机科学与人工智能实验室博士后 Noman Bashir 解释道。他同时是该研究论文的第一作者。
科学家估计,北美数据中心的电力需求已从 2022 年底的 2,688 兆瓦增长至 2023 年底的 5,341 兆瓦,其中部分增长归因于生成式 AI 的需求。从全球来看,2022 年数据中心的总电力消耗达 460 太瓦时。根据经济合作与发展组织的数据,这一能耗足以使数据中心成为全球第 11 大用电实体,位列沙特阿拉伯(371 太瓦时)和法国(463 太瓦时)之间。
预计到 2026 年,数据中心的电力消耗将接近 1,050 太瓦时,届时它们将成为全球第五大用电实体,仅次于日本和俄罗斯。
尽管数据中心的计算任务并非全部涉及生成式 AI,但这一技术已成为能源需求增长的主要驱动力之一。
“新建数据中心的能源需求难以以可持续的方式满足。各家公司建设数据中心的速度过快,这意味着其电力供应仍然主要依赖化石燃料发电厂。” Bashir 指出。
训练和部署大型 AI 模型,如 OpenAI 的 GPT-3 所需的电力难以精准估算。然而,2021 年的一项研究表明,谷歌和加州大学伯克利分校的科学家估算仅 GPT-3 的训练过程就消耗了 1,287 兆瓦时的电力,这一用量足以支撑约 120 户美国普通家庭一年的用电需求,并伴随约 552 吨二氧化碳排放。
Bashir 解释说,“尽管所有机器学习模型都需要经过训练,但生成式 AI 面临的独特挑战之一在于其训练过程的不同阶段会导致能源消耗剧烈波动。”
电网运营商必须找到应对这些波动的方法以确保电网稳定性。然而,通常用于平衡电力负载的方法是使用柴油发电机,这不仅增加了对化石燃料的依赖,还进一步加剧了碳排放问题。
推理阶段的能源影响持续增长
当一个生成式 AI 模型完成训练后,其能源需求并不会随之消失。
每次使用模型,例如用户请求 ChatGPT 总结一封电子邮件,执行这些操作的计算硬件都会消耗能源。研究人员估计,一次 ChatGPT 查询所消耗的电力大约是一次普通网络搜索的五倍。
“但普通用户不会过多考虑这一点。” Bashir 说道,“生成式 AI 界面的便捷性,以及用户对其环境影响缺乏认知,意味着我们不会去想如何减少对这项技术的使用。”
在传统 AI 中,能源消耗相对均匀地分布在数据处理、模型训练和推理三个阶段。然而,Bashir 预计,生成式 AI 的推理阶段未来将成为能源消耗的主导部分。随着这些模型在越来越多的应用中普及,且未来版本的模型变得更大、更复杂,推理所需的电力消耗也将持续增加。
尽管数据中心的电力需求在研究中受到广泛关注,但这些设施的水资源消耗同样带来了显著的环境影响。
冷却数据中心通常需要大量冷却水来吸收计算设备产生的热量。据 Bashir 估算,数据中心每消耗 1 千瓦时的能源,通常需要约 2 升水进行冷却。这种高强度的水资源消耗可能加剧当地的水资源短缺,并对生态系统造成破坏。
“云计算这个名称并不意味着这些硬件真的存在于云端。数据中心是现实世界中的实体设施,而它们的用水需求对生物多样性有着直接和间接的影响。” Bashir 说道。
数据中心内部的计算硬件本身也带来了间接但显著的环境影响。
尽管难以精确估算制造 GPU 所需的电力,但其能耗无疑高于更简单的 CPU,因为 GPU 的制造工艺更加复杂。此外,GPU 的碳足迹还受到原材料运输和供应链排放的叠加影响。
GPU 所使用的原材料开采过程同样带来了严重的环境影响。许多稀有金属的开采涉及高污染的采矿作业,并且在提炼过程中可能使用有毒化学品,对生态环境造成长期破坏。
市场研究公司 TechInsights 估计,2023 年,三大主要 GPU 生产商英伟达、AMD 和英特尔向数据中心出货了 385 万块 GPU,较 2022 年的 267 万块大幅增长。预计 2024 年的增长幅度将更为显著。
Bashir 指出,当前行业的发展路径难以长期持续,但仍然可以通过推动负责任的生成式 AI 发展来支持环境目标。
他与 Olivetti 及其麻省理工学院的同事们认为,要实现这一目标,需要全面考量生成式 AI 的环境与社会成本,同时深入评估其潜在收益的真正价值。
“我们需要一种更有针对性的方法,以系统且全面地理解该领域新技术发展的影响。由于技术进步的速度如此之快,我们尚未有足够的时间来完善衡量和理解这些权衡取舍的能力。” Olivetti 总结道。
https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117