晴時多雲

AI難逃「能源危機」?微軟工程師:1個州部署超10萬片H100 GPU 電網就會崩潰

2024/03/28 06:11

微軟工程師表示,1個州部署超10萬片H100 GPU,電網就會崩潰(路透資料照)

首次上稿 03/27 23:34
更新時間 03/28 06:11

〔財經頻道/綜合報導〕「吃電巨獸」AI難逃「能源危機」?微軟1位GPT-6訓練集群項目工程師稱,如果在1個州部署超10萬片H100 GPU,電網就會崩潰。

外電報導,GPT-5尚未面世,OpenAI似乎已開始着手訓練GPT-6,不過電力或許已成為1個「卡脖子」難題。

AI初創公司OpenPipe聯合創始人、執行長 Kyle Corbitt(凱爾·科比特)透露,自己最近與1位負責GPT-6訓練集群項目的微軟工程師談過,該名工程師抱怨稱,在跨區域GPU之間部署infiniband(無線頻寛)級別鏈接,實在是1件痛苦的事。

Corbitt續問,為何不將訓練集群集中在同1區域,這位微軟工程師回答,我們已經嘗試過那麼做了,但是如果在1個州放置超過10萬片H100 GPU,電網就會崩潰。

10萬片H100是什麼概念?根據市場調查機構Factorial Funds的1份報告顯示,OpenAI的文字生成視頻模型Sora在高峰值期間需要72萬片H100,依該工程師的說法,這個數量足以讓7個州的電網崩潰。

剛謝幕的標普全球2024年劍橋能源周(CERAWEEK)上,來自全球的能源行業高層們,談起了AI技術對行業的推進,也談及了AI對能源巨大的需求。

美國最大天然氣生產商EQT執行長Toby Rice在演講中,援引了這樣1項預測,到2030年,AI消耗的電力將超過家庭用電量。

另,OpenAI的Sam Altman就曾為AI的能源、特別是電力需求“叫苦”。在年初的達沃斯論壇上他表示,AI的發展需要能源方面的突破,AI將帶來遠超預期的電力需求。

有數據顯示,ChatGPT每天需要消耗超過50萬千瓦時的電力,用於處理約2億個用戶請求,相當於美國家庭日用電量的1.7萬多倍;至於搜索巨頭GOOGLE,若其在每次用戶搜索中都調用AIGC,年耗電量將增至290億千瓦時左右,這甚至高於肯亞、瓜地馬拉等國1年的用電量。

回顧AI還未掀起如此大範圍熱潮的2022年,彼時中國與美國的數據中心分別佔各自社會總用電量的3%與4%。

隨着全球算力規模逐步增長,華泰證券3月24日研報預測,到2030年,中國與美國的數據中心總用電量將分別達到0.95/0.65兆度與1.7/1.2兆度電,是2022年的3.5倍與6倍以上;樂觀情景下,2030年中/美AI用電體量將達到2022年全社會用電量的20%/31%。

分析師進一步指出,由於數據中心分佈並不均勻,因此區域性的缺電風險將最先出現(如美國的維吉尼亞州),考慮美國電力慮歷史上幾乎無增長,因此AI將成為海外已開發國家電力重回正增長的重要驅動要素。

一手掌握經濟脈動 點我訂閱自由財經Youtube頻道

不用抽 不用搶 現在用APP看新聞 保證天天中獎  點我下載APP  按我看活動辦法

已經加好友了,謝謝
歡迎加入【自由財經】
按個讚 心情好
已經按讚了,謝謝。

相關新聞

今日熱門新聞
看更多!請加入自由財經粉絲團
網友回應
載入中