<返回更多

ChatGPT日耗电超50万度,大模型或带来“电荒”

2024-03-11    羊城派
加入收藏

未来两年内将由“缺硅”变为“缺电”,马斯克的预言可能正在变成现实。

据《纽约客》杂志报道,AI target=_blank class=infotextkey>OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。相比之下,美国家庭平均每天使用约29千瓦时电力,也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。

实际上,此前就有数据显示,ChatGPT训练时就已耗电量巨大。根据斯坦福人工智能研究所(HAI)发布的《2023年人工智能指数报告》,OpenAI的GPT-3单次训练耗电量高达1287兆瓦时(1兆瓦时=1000千瓦时)。

这是什么概念?知名计算机专家吴军的形容并不夸张:大概是3000辆特斯拉电动汽车、每辆跑到约32万公里的总耗电量。

国盛证券估算,GPT-3的单次训练成本就高达140万美元,对于一些更大的LLM(大型语言模型),训练成本介于200万美元至1200万美元之间。

而业内人士表示,大模型训练成本中60%是电费。

训练完成后,ChatGPT也仍然需要大量的计算能力来运行,并因此耗费大量能源,OpenAI每天在ChatGPT上的花费就高达70万美元。

不仅ChatGPT的耗电量惊人,其他人工智能软件的开发也在加剧对用电量的需求。以谷歌为例,其人工智能训练的耗电量占该公司总用电量的10%至15%,也就是每年耗电量在23亿度左右,而这相当于美国一个州首府所有家庭一年的用电量。

即使是由人工智能初创公司 Hugging Face 搭建的更为高效的BLOOM模型,耗电量也达到433兆瓦时,足以为一个普通美国家庭供电41年。

可以预见的是,如果生成式AI被进一步采用,耗电量有可能会更多。所以,大家为人工智能所描绘的盛世图景欢呼时,也应留意到盘踞在其上方的阴影——电力成本。

一项研究曾指出,在未来几年中,与人工智能相关的能源消耗很可能会显著增加。到2027年,生成式人工智能所消耗的能源可以为荷兰大小的国家提供一年的电力,相当于约85-134太瓦时(TWh)。

所以,很多人正在担心,随着人工智能的突飞猛进,“电荒”会否真的发生。特斯拉CEO马斯克就曾预言,未来两年内将由“缺硅”变为“缺电”,而这可能阻碍人工智能的发展。在他看来,电力短缺可能会造成严重后果,就像最近缺芯阻碍科技和汽车行业一样。

文|记者 冷爽

图|网络

关键词:大模型      点击(11)
声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多大模型相关>>>