1天消耗超过50万度电力,AI大模型有多耗能?
Sora问世后,人类又要完了充上热搜。
在巨大的焦虑冲击之后,耗能的问题逐渐获得关注。
事实上,Sam Altman 宣布 OpenAI 启动“造芯”计划,因为目前 OpenAI 每天生成约 1000 亿个单词,需要大量的 GPU(图形处理器)芯片进行训练计算。
他希望筹得 7 万亿美元。
这个天文数字,不仅相当于全球 GDP 的 10%,等同于 2.5 个微软、3.75 个谷歌、4 个英伟达、7 个 Meta,以及 11.5 个特斯拉的市值。
目前,人工智能公司很少公开谈论大模型的训练成本,但相关研究估计这些模型的训练成本可高达数百亿美元。斯坦福大学发布的《2023年人工智能指数报告》,基于已有大模型披露的硬件和训练时间,对其训练成本进行了估算。
2019年,OpenAI发布的大语言模型GPT-2参数量为15亿,它的训练成本约为5万美元左右;到了2020年,训练1750亿参数量的GPT-3的费用大概是180万美元。GPT-3比GPT-2的参数量扩大了117倍,其训练费用也增加了36倍。大型语言和多模态模型如“吞金兽一般”,变得越来越大,也越来越贵。
生成式AI多耗能:ChatGPT日耗电量超50万度
训练大模型需要大量的能源,比传统的数据中心要消耗更多的电力。OpenAI曾发布报告指出,自2012年以来,AI训练应用的电力需求每3到4个月就会翻一倍。华为AI 首席科学家田奇也曾给出数据,AI算力在过去10年至少增长了40万倍。AI大模型可谓是“耗电巨兽”。
研究显示,训练谷歌于2022年发布的大语言模型PaLM需要消耗3436兆瓦时的电量,约等于11.8万美国普通家庭日耗电量(美国普通家庭日均耗电量约为29千瓦时);就算训练参数量为3.4亿的BERT模型,也需要消耗1.5兆瓦时的电量,相当于观看1875小时的流媒体。
据了解,AI服务器和芯片是产生能耗最主要的地方。通用型服务器只需要2颗800W服务器电源,而AI服务器则需要4颗1800W高功率电源,AI服务器对于电源的需求大大提升。荷兰一位学者表示,到2027年,新制造的人工智能设备的用电量将与荷兰、瑞典、阿根廷等国的用电量一样。
除了耗电,由于算力设备的冷却需求,AI消耗的水资源数量也惊人。
谷歌环境报告显示,2022年谷歌的用水量达到了56亿加仑水(约212亿升水),相当于8500个奥运会规格的游泳池,这些水被用来为该公司的数据中心散热。
不仅如此,在微软的美国数据中心训练GPT-3使用的水量相当于填满一个核反应堆的冷却塔所需的水量,大约70万升。而用户在使用生成式AI工具时也需要耗水。研究显示,ChatGPT每与用户交流25-50个问题,就可消耗500毫升的水。研究人员预计,到2027年,全球范围内的AI需求可能会需要消耗掉66亿立方米的水资源,几乎相当于美国华盛顿州全年的取水量。
除了消耗大量的电力和水资源,AI大模型还是碳排放大户。斯坦福大学报告显示,OpenAI的GPT-3模型在训练期间释放了502公吨碳,是目前大模型中有据可查耗能最严重的,它的碳排放量是Gopher模型的1.4倍, 是BLOOM模型的20.1倍,约等于8辆普通汽油乘用车一生的碳排放量,人均91年的碳排放量。
随着科技日新月异,未来AI大模型会层出不穷。不可否认的是,生成式AI的出现给社会生活带来了巨大的助力,但AI给人类带来效率提升的同时也可能引发能源危机。所以,科技巨头们还需从算法和模型优化、硬件优化、训练和计算技巧等方面入手,让AI功耗在一定程度上降低。