根据Digital Information World发布的最新报告,数据中心为训练AI模型产生的能耗将为常规云工作的三倍,预计到2030年,美国数据中心的电力需求将以每年约10%的速度增长。算力是AI世界发展的基础,而算力的瓶颈归根到底还是电力,随着争夺AI军备竞赛日趋白热化,对电力的争夺变得越来越重要。
数据显示,OpenAI训练GPT-3耗电为1.287吉瓦时,大约相当于120个美国家庭1年的用电量。而这仅仅是训练AI模型的前期电力,仅占模型实际使用时所消耗电力的40%。2023年1月,OpenAI仅一个月已耗用可能等同17.5万个丹麦家庭的全年用电量。谷歌AI每年耗电量达2.3太瓦时,相当于亚特兰大所有家庭1年用电量。
目前,能耗问题已经引起了广泛关注。将成本最小化的最佳方法是在拥有良好可再生能源的地区建立数据中心,同时还能提高能源使用效率。例如,冰岛和挪威的数据中心使用绿色能源运行,不受全球电力成本的影响。
此外,微软正在购买可再生能源,并采取其他措施,以实现到2030年实现碳负排放的目标,并进一步致力于到2025年为所有设施提供100%可再生能源。亚马逊AWS云部门也正在转向可再生能源,从柴油转向加氢处理植物油(HVO),为其欧洲数据中心的备用发电机提供燃料。
训练模型太耗电!服务器能耗暴涨三倍 AI最后拼的竟是电力。点击视频,一看究竟!