AI为何是耗电费水“大魔王” 热潮之下也有“暗礁”

来源:金羊网 作者:王丹阳 发表时间:2024-05-04 09:55
金羊网  作者:王丹阳  2024-05-04
在技术进步与能源消耗的矛与盾之间,将如何破题?AI热潮下又该如何为未来去除“暗礁”?

羊城晚报全媒体记者 王丹阳

人工智能正在重塑我们的生活。

但是,在AI大模型百舸争流背后,多项研究表明,大模型运行极其耗电费水,也会带来极高的碳排放量。有网友戏称“只要电费贵过馒头,AI就永远不能完全代替人”。

在技术进步与能源消耗的矛与盾之间,将如何破题?AI热潮下又该如何为未来去除“暗礁”?

GPT-3单次训练耗电

相当于3000辆特斯拉跑到报废

你知道训练一次大模型需要多少度电吗?

根据斯坦福人工智能研究所发布的《2023年人工智能指数报告》,OpenAI的GPT-3单次训练耗电量高达1287兆瓦时(1兆瓦时=1000千瓦时),也就是127.8万度电。

这是什么概念?据美国国家环保署评定,特斯拉Model Y每百英里(161公里)耗电28千瓦时,1278兆瓦时相当于3000辆特斯拉,每辆跑满20万英里(32.2万公里)。大多数司机认为跑满30多万公里大关是汽车寿命上限。这意味着,大模型的单次训练耗电,就相当于3000辆特斯拉跑到报废所需要消耗的电量。

即便如此,模型训练只是开始。

AI的耗电主要来自两个阶段——训练阶段和推理阶段。训练阶段涉及大量数据集的输入和模型参数的调整,而推理阶段则是模型根据新数据生成输出结果的过程。

在大模型推理阶段,当用户使用时,根据估算,每生成1000个英文单词大约消耗0.125千瓦时的电量,也就是说每问8次就会消耗1度电,而1度电电量可至少充电50次手机,吹55分钟的空调,让笔记本电脑工作约10-15小时,让电视机播放约10个小时。而一个中等规模的电影放映厅,放映90分钟的电影,用电才17度,相当于136个用户在ChatGPT只问一次的电量。

ChatGPT现在差不多2亿用户,有数据显示,其单日耗电量至少超50万千瓦时,一年电费就要近2亿美元。

除了OpenAI,谷歌也“吃电量”惊人:在谷歌搜索中应用生成式AI技术,谷歌每年的耗电量将高达290亿千瓦时,也就是每天约7900万度电。这相当于2.37亿台特斯拉跑到报废所需要消耗的电量。

此外,亚马逊也估计,运行AI的能耗费用中,90%来自用户查询模型以获得结果的阶段,大约相当于训练阶段的10倍。

在今年2月,OpenAI首席执行官萨姆·奥特曼表示,AI技术消耗的电力将远远超出人们预期。

“AI技术的发展速度前所未见,到了明年人类就没有足够的电力来运行所有的芯片了。”一个月前,马斯克也表达了同样的“缺电焦虑”。

AI数据中心好比超大“电热水器”

AI一下就没了“一瓶水”?

更重要的是除了是“耗电”大魔王,AI其实也非常费水。

虽然太阳能和风能发电不用消耗水,但是火电、天然气和核能发电都会消耗大量水。

服务于AI的芯片制造也是一个高度复杂和精密的过程,涉及大量的清洗和化学处理步骤,这些步骤通常需要用到超纯水。生产一个智能手机芯片大约需要消耗5吨多的水。

在AI数据中心,除了芯片,“耗电”的重要机器还有风扇。如果没有不断吹过一排排计算机的冷空气,先进的芯片能将自己烧毁。

简言之,耗能越多,热能越多。

近年来,液冷的散热方式成为AI算力中心的部署趋势。数据显示,与传统的风冷系统相比,新型液冷系统可节省用电量的30%至50%。

因此,AI超算数据中心就需要大量水来散热。

一个颇为形象的比喻:AI数据中心就好比一个超级大的“电热水器”。

仍以初级的GPT-3为例,有学术研究显示,GPT-3在训练期间耗水近700吨,足以用来生产370辆宝马汽车或320辆特斯拉电动汽车。

用户每一次和GPT-3的简单对话,AI回答10至50个问题,就需消耗500毫升水。

“人们需要意识到,使用大模型和训练大模型并不是不需要水的”加州大学河滨分校表示人工智能模型的“巨大水足迹”一直“隐藏在雷达之下”,令人担忧。

值得一提的是,公开资料显示,微软承认用水是训练大模型的一大成本,从2021年到2022年,其全球用水量飙升了34%,相当于2500个奥运规格游泳池的大小。

弗吉尼亚理工大学的研究指出,Meta在2022年使用了超过260万立方米的水,主要就是数据中心使用。

有调研估算,到2027年,全球范围内的AI需求可能需要消耗掉66亿立方米的水资源,相当于杭州西湖水量的450多倍、75个武汉东湖、9个云南滇池。

换句话说,AI的高耗电耗水量也带来了经济成本的上升,这一成本最终转嫁到了消费者身上。

或许,这就不能理解,为何OPEN AI的奥特曼会在今年认为未来两种重要的货币是算力和能源。

比AI更耗电费水的是啥?

加密货币耗能更疯狂

今年1月底,美国信息技术与创新基金会(ITIF)发布报告《重新审视对人工智能能耗的担忧》称,应为AI模型制定能源透明度标准。

实际上,热潮之中的AI也不是最耗能源的,跟“数字黄金”的比特币比起来,甚至相形见绌。

英特尔CEO帕特·基辛格认为一项技术消耗太多能源,是不对的。

他表示,进入比特币账户一次,就比一个家庭一天的耗电量要高,比特币使用太频繁会造成气候危机。

剑桥大学正在开展的一项研究估计,比特币涉及的二氧化碳排放高达7250万吨。如果所有比特币矿工都使用水电,这一数字可低至300万吨。相比疯狂耗电的加密货币,AI大模型似乎微不足道。

正如马斯克所说,一个新兴产业爆发所带来的电力需求,完全有可能颠覆原来的想象,更何况需要电力的不止AI,还有电动车、电动机器人、电解水制氢等等。

面对新技术带来的挑战,科技公司正在探索多种解决方案。一方面,通过优化算法提高效率,如模型量化和剪枝,减少计算量和电量消耗。另一方面,新型能源的投资也成为了一个重要方向。为了解决用电问题,微软和OPEN AI都在布局核聚变发电装置。

国际能源署在今年1月发布的报告中预测,未来三年,全球对数据中心、加密货币和人工智能的电力需求将增加一倍以上,相当于一个德国的全部电力需求。到2026年,全球总体电力需求预计将增长3.4%。

根据国际能源署的数据,数据中心和输电网络的能源消耗已各占全球总量的1.5%。它们每年的碳排放总量与巴西相当。

中国作为全球算力总规模排名第二的国家,正在通过提升AI和电力相关技术、优化数据中心软硬件技术,以及利用丰富的绿色电力资源来应对AI耗电问题。

在海南陵水,海平面下30余米的海床上,单个重达1300吨的数据舱安静地运转着,这是全球首个商用海底数据中心项目。

海洋是全球最大的自然冷源,将数据中心建在海底,优势在于减少数据中心在制冷上所需的能耗,在几乎不消耗淡水资源的同时,可以支持更高的功率密度,进而稳定地提供澎湃算力。

海兰云海底数据中心海南示范开发项目总经理蒲定对外介绍,以100个海底数据舱为例,相较于同等规模的陆地传统数据中心,海底数据中心每年能节省用电总量1.22亿千瓦时、节省建设用地面积6.8万平方米、节省淡水10.5万吨。

可谓是省电、省水、省地,一举多得。全球已实现在海底建设数据中心的只有两个国家,一个是中国,另一个就是美国。

当你下次开始与AI大模型对话时,不如想一想人机交互所需要的“那瓶水”。

且用且行且珍惜。

编辑:邬嘉宏
返回顶部
精彩推荐