字数 1510,阅读大约需 8 分钟

Epoch AI的分析
非营利性AI研究机构Epoch AI最近进行了一项分析,试图计算一次典型的ChatGPT查询会消耗多少能量。此前,一个被广泛引用的数据是,ChatGPT回答单个问题大约需要3瓦时的电量,这是谷歌搜索能耗的10倍。然而,Epoch AI认为这一数据高估了ChatGPT的能耗。
以OpenAI用于ChatGPT的最新默认模型GPT – 4o为参考,Epoch AI发现,一次普通的ChatGPT查询平均消耗约0.3瓦时的电量,这比许多家用电器的能耗还要低。进行该分析的数据分析师约书亚·尤(Joshua You)表示:“与使用普通电器、给家里供暖或制冷,甚至开车相比,ChatGPT的能耗真的不算多。”
能耗争议的背景
AI的能源使用及其对环境的广泛影响,一直是行业内激烈争论的话题。随着AI公司迅速扩张其基础设施规模,这一问题愈发受到关注。就在上周,100多个组织发布了一封公开信,呼吁AI行业和监管机构确保新的AI数据中心不会耗尽自然资源,也不会迫使公用事业依赖不可再生能源。
约书亚·尤指出,他进行这项分析的原因是,此前的一些研究已经过时。例如,得出3瓦时这一估计值的报告作者,假定OpenAI使用的是更旧、效率更低的芯片来运行其模型。约书亚·尤提到:“我看到很多公开讨论都认识到AI在未来几年将消耗大量能源,但对于当下AI实际消耗的能源,描述并不准确。而且,我的一些同事也注意到,被广泛报道的每次查询3瓦时的估计,是基于相当陈旧的研究,通过简单估算就发现这个数值似乎过高。”
Epoch AI数据的情况
Epoch AI得出的0.3瓦时这一数据是近似值,因为OpenAI并未公布进行精确计算所需的详细信息。此外,该分析没有考虑诸如图像生成或输入处理等ChatGPT功能带来的额外能源成本。约书亚·尤也承认,“长输入”的ChatGPT查询,比如附带长文件的查询,可能在一开始就比普通问题消耗更多电量。
未来能耗趋势
近期,AI在效率方面取得了显著突破,但AI的部署规模预计仍将推动庞大且高能耗的基础设施扩张。兰德公司(Rand)的一份报告显示,在未来两年内,AI数据中心可能需要消耗掉加利福尼亚州2022年全部的电力产能(68GW)。该报告还预测,到2030年,训练一个前沿模型所需的电力输出可能相当于8座核反应堆(8GW)。
ChatGPT的用户数量极为庞大且仍在不断增长,这使得其服务器需求同样巨大。OpenAI与几个投资伙伴计划在未来几年内,在新的AI数据中心项目上投入数十亿美元。
推理模型的能耗问题
OpenAI以及整个AI行业的关注点,正逐渐转向所谓的推理模型。这类模型在能够完成的任务方面通常更强大,但运行时需要更多的计算资源,也就意味着更高的能耗。与像GPT – 4o这样几乎能瞬间回复查询的模型不同,推理模型在回答前需要“思考”几秒到几分钟,这一过程会消耗更多的计算资源,进而消耗更多电力。
约书亚·尤提到:“推理模型将越来越多地承担旧模型无法完成的任务,并为此生成更多数据,这两者都需要更多的数据中心。”OpenAI已经开始发布像o3 – mini这样更节能的推理模型。但至少在目前看来,这些效率提升似乎不太可能抵消推理模型“思考”过程以及全球范围内不断增长的AI使用所带来的能耗增加。
降低能耗的建议
约书亚·尤建议,那些担心AI能耗问题的用户,可以减少使用ChatGPT这类应用的频率,或者在现实可行的情况下,选择将计算需求降至最低的模型。他说:“你可以尝试使用像OpenAI的GPT – 4o – mini这样较小的AI模型,并以一种尽量少处理或生成大量数据的方式谨慎使用它们。”
AI能耗会因其处理任务的复杂程度而有所不同。简单的文本分类任务能耗相对较低,而复杂的多模态任务,如结合图像、文本和语音的任务,能耗则会大幅上升。对AI数据中心的实地调研发现,数据中心的电力消耗主要集中在服务器的计算运行以及冷却系统上。为保证AI模型高效运行,服务器需持续处于高性能状态,导致较高能耗。同时,为防止服务器过热,冷却系统也需消耗大量电力。这与ChatGPT运行过程中的能耗情况类似,其能耗不仅取决于模型计算本身,还与维持运行环境的设备能耗相关。