AI功耗,冰山一角
关于AI能源消耗问题,《纽约客》的报道一度引起广泛关注。报告估计,每天的用电量可能超过50万千瓦时。 (参见:每日耗电量超过50万千瓦时,是能源阻碍了AI的发展吗?)事实上,虽然目前AI的耗电量看似天文数字,但仍远远低于加密货币和传统数据中心。微软工程师遇到的困难也表明,制约AI发展的不仅仅是技术本身的能耗,还有配套基础设施的能耗以及电网的承载能力。
国际能源署(IEA)发布的报告显示,2022年全球数据中心、人工智能和加密货币的电力消耗将达到460太瓦时,占全球能源消耗的近2%。 IEA预测,在最坏的情况下,到2026年这些地区的用电量将达到1000太瓦时,相当于整个日本的用电量。
不过,报告也显示,目前直接投入人工智能研发的能源消耗远低于数据中心和加密货币。 占据AI服务器市场约95%的份额,2023年供应约10万颗芯片,每年消耗约7.3TWh电力。但到 2022 年,加密货币的能耗为 110 TWh,相当于整个荷兰的用电量。
图例:2022年和2026年传统数据中心、加密货币和人工智能数据中心的能耗估算(柱状图从下到上显示)。可见,目前AI的功耗远低于数据中心和加密货币。图片来源:国际能源署
冷却能耗不容忽视
数据中心的能源效率通常用能效比()来评价,即所有消耗的能源与IT负载消耗的能源的比值。能效比越接近1,数据中心浪费的能源就越少。数据中心标准组织发布的报告显示,2020年全球大型数据中心平均能效比约为1.59。也就是说,数据中心内的IT设备每消耗1度电,其配套设备就消耗0.59度电。
数据中心的大部分额外能耗都用于冷却系统。有调查研究表明,冷却系统消耗的能源可达数据中心总能耗的40%。近年来,随着芯片的升级换代,单个设备的功率不断增大,数据中心的功率密度(即单位面积的功耗)不断增加,对散热提出了更高的要求。但与此同时,通过改进数据中心设计,可以显着减少能源浪费。
由于冷却系统、结构设计等方面的差异,不同数据中心的能效比差异较大。报告显示,欧洲国家已将能效比降至1.46,而亚太地区超过十分之一的数据中心能效比仍超过2.19。
世界各国都在采取措施督促数据中心实现节能减排目标。其中,欧盟要求大型数据中心设置余热回收设备;美国政府投资研发更节能的半导体;中国政府还出台措施,要求从2025年起数据中心能效比不高于1.3,并逐年提高可再生能源使用比例。到 2032 年增加到 100%。
图例:2020年全球大型数据中心能效比。从左到右:非洲、亚太、欧洲、拉丁美洲、中东、俄罗斯和独联体国家、美国和加拿大。图片来源:
科技公司使用电力。减少支出难,增加收入更难。
随着加密货币和人工智能的发展,各大科技公司的数据中心规模不断扩大。据国际能源署(IEA)统计,2022年美国将有2700个数据中心,消耗该国4%的电力消耗,预计到2026年这一比例将达到6%。随着美国东西海岸的资源日益稀缺,数据中心逐渐向爱荷华州和俄亥俄州等中部地区转移。但这些二线地区原有工业欠发达,电力供应可能无法满足需求。
一些科技公司尝试脱离电网,直接从小型核电站购买电力,但这种用电和建设新核电站的方法面临复杂的行政流程。微软正在尝试利用AI来辅助完成应用程序,而谷歌则利用AI来调度计算任务,以提高电网运行效率并减少企业碳排放。至于可控核聚变何时投入使用,目前还不得而知。
气候变暖使情况变得更糟
人工智能研发需要稳定、强大的电网支撑,但随着极端天气的频繁发生,很多地区的电网变得更加脆弱。气候变暖将导致极端天气事件更加频繁,不仅会造成电力需求激增、增加电网负担,还将直接影响电网设施。 IEA报告指出,由于干旱、降雨不足和融雪提前,2023年全球水电占比降至三十年来的最低值,不足40%。
天然气通常被视为向可再生能源过渡的桥梁,但在极端冬季天气下并不稳定。 2021年,寒潮袭击美国德克萨斯州,造成大面积停电。一些居民已经停电70多个小时。造成这场灾难的主要原因之一是天然气管道结冰,导致天然气发电厂关闭。北美电力可靠性委员会(North,简称NERC)预测,2024年至2028年,美国和加拿大将有超过300万人面临越来越大的停电风险。
为了在实现节能减排的同时确保能源安全,许多国家也将核电站视为过渡措施。 2023年12月,联合国气候变化委员会第28届峰会(COP 28)上,22个国家签署联合声明,承诺到2050年将核电发电能力提高到2020年水平的三倍。同时,作为中国,印度等国大力推进核电建设,IEA预计到2025年全球核电发电量将创历史新高。


