article_image

🔗 原文链接

人们普遍对人工智能的能耗存在误解,认为单个查询产生的排放量微不足道。然而,当我们将整个行业没有跟踪的内容加起来,并考虑到人工智能未来的发展方向时,会发现其能源需求是惊人的。例如,单次人工智能文本、图像或视频查询产生的排放量看似很小,但当数亿用户每天进行数十亿次查询时,这种 “微不足道” 的能耗便会迅速累积成一个天文数字。

全球最大的科技公司已经把 “用更多的电” 提上了日程,甚至想重塑我们的能源网络。为了满足 AI 日益增长的需求,它们正在大手笔投资能源基础设施:

  • Meta 和 微软 联手搞起了新的核电站。
  • OpenAI 和 trump 的 “星际之门” 计划,准备砸下 5000 亿美元,建数据中心。
  • 苹果也计划未来四年在美国投资 5000 亿美元用于制造业和数据中心建设。
  • 谷歌预计到 2025 年,光是 AI 基础设施就要投 750 亿美元。

这些数字都在告诉我们,AI 的能源需求不是数字世界的 “正常操作”,它是个特例,和近年来大厂们用电量增长的需求完全不是一回事。

AI 的能源消耗不是线性,而是指数级的。2005 年到 2017 年,尽管为了服务 Facebook、Netflix 这些新兴的云在线服务,数据中心大规模新建,但由于效率提升,用电量基本没变。然而,2017 年 AI 横空出世,一切都变了。数据中心开始用上专为 AI 设计的高能耗硬件,导致它们的用电量在 2023 年翻了一番。

如今,美国 4.4% 的能源都用在了数据中心上。更让人揪心的是,数据中心用电的碳强度比美国平均水平高出 48%。部分原因在于,数据中心目前集中在电网污染更严重的地区,比如大西洋中部地区(包括弗吉尼亚州、西弗吉尼亚州和宾夕法尼亚州)那些烧煤的电网。而且它们需要全年无休地持续运转,哪怕没有更清洁的能源也要硬着头皮上。

展望未来,AI 的能源足迹只会越来越大。劳伦斯伯克利国家实验室去年 12 月发布的最新预测显示,到 2028 年,数据中心一半以上的电力将用于 AI。届时,光是 AI 一项,每年的耗电量就可能相当于美国 22% 的家庭用电量。研究人员还估算,到 2028 年,用于 AI 专项目的电力将增至每年 165 至 326 太瓦时,这已经超过了目前美国数据中心所有用途的总用电量。这无疑将产生巨量的碳排放,可能相当于开车行驶超过 3000 亿英里,从地球到太阳往返 1600 多次。

简单感受一下日常使用 AI 产生的能耗:

  • 15 次文本咨询(马拉松筹款建议)≈ 微波炉工作 3.5 小时
  • 10 次图片生成(活动海报设计)≈ 电动自行车骑行 2.5 英里
  • 3 段 5 秒视频(社交媒体素材)≈ 微波炉连续运转 3 小时

这些数据背后是恐怖的规模效应:当 Meta 每天处理 120 亿次 AI 请求,相当于全球 1% 人口同时在骑电动自行车。而根据劳伦斯伯克利实验室预测,到 2028 年 AI 专用电力将达 326 太瓦时,足够 2.3 亿美国家庭使用 —— 这个数字还在以每年翻倍的速度增长。

最关键的是,这笔电费单最后可能不是 AI 公司在付费,而是均摊到当地居民身上。根据哈佛电力法律倡议的研究,公用事业公司为了吸引数据中心落地,往往会给科技公司电费打折。而为了填补空缺,电力公司可能会把账单转嫁给普通居民。

“我们不清楚这些数据中心的收益是否大于成本,” 哈佛大学环境与能源法项目法律研究员、该研究的合著者伊丽莎・马丁 (Eliza Martin) 表示。“我们为什么要为这些基础设施买单?我们为什么要为他们的电费买单?”


author_avatar

UNTAG 官方