未來兩年內將由“缺硅”變為“缺電”,馬斯克的預言可能正在變成現實。
據《紐約客》雜志報道,OpenAI的熱門聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力,以響應用戶的約2億個請求。相比之下,美國家庭平均每天使用約29千瓦時電力,也就是說,ChatGPT每天用電量是家庭用電量的1.7萬多倍。
實際上,此前就有數據顯示,ChatGPT訓練時就已耗電量巨大。根據斯坦福人工智能研究所(HAI)發布的《2023年人工智能指數報告》,OpenAI的GPT-3單次訓練耗電量高達1287兆瓦時(1兆瓦時=1000千瓦時)。
這是什么概念?知名計算機專家吳軍的形容并不夸張:大概是3000輛特斯拉電動汽車、每輛跑到約32萬公里的總耗電量。
國盛證券估算,GPT-3的單次訓練成本就高達140萬美元,對于一些更大的LLM(大型語言模型),訓練成本介于200萬美元至1200萬美元之間。
而業內人士表示,大模型訓練成本中60%是電費。
訓練完成后,ChatGPT也仍然需要大量的計算能力來運行,并因此耗費大量能源,OpenAI每天在ChatGPT上的花費就高達70萬美元。
不僅ChatGPT的耗電量驚人,其他人工智能軟件的開發也在加劇對用電量的需求。以谷歌為例,其人工智能訓練的耗電量占該公司總用電量的10%至15%,也就是每年耗電量在23億度左右,而這相當于美國一個州首府所有家庭一年的用電量。
即使是由人工智能初創公司 Hugging Face 搭建的更為高效的BLOOM模型,耗電量也達到433兆瓦時,足以為一個普通美國家庭供電41年。
可以預見的是,如果生成式AI被進一步采用,耗電量有可能會更多。所以,大家為人工智能所描繪的盛世圖景歡呼時,也應留意到盤踞在其上方的陰影——電力成本。
一項研究曾指出,在未來幾年中,與人工智能相關的能源消耗很可能會顯著增加。到2027年,生成式人工智能所消耗的能源可以為荷蘭大小的國家提供一年的電力,相當于約85-134太瓦時(TWh)。
所以,很多人正在擔心,隨著人工智能的突飛猛進,“電荒”會否真的發生。特斯拉CEO馬斯克就曾預言,未來兩年內將由“缺硅”變為“缺電”,而這可能阻礙人工智能的發展。在他看來,電力短缺可能會造成嚴重后果,就像最近缺芯阻礙科技和汽車行業一樣。