自由財經

LTN經濟通》動不動就缺水?台灣推動AI大考驗

2024/06/11 07:08

AI資料中心運作需要大量的電量及水資源。(路透)

2030年  全球AI用水量可能要升至4.5億加侖/天

歐祥義/核稿編輯

〔財經頻道/綜合報導〕人工智慧技術已是目前全球各地都在搶攻的重要領域,人工智慧在處理大量資料時,相當耗能、耗電,供電情況已成為未來的關鍵焦點之一,不少專家都表示,未來會隨著AI在生活使用上越來越廣泛,各地擁有足夠的電力相當重要,近來摩根大通的研究報告指出,除了供電問題,高耗水也是AI資料中心運作的基本特質。

摩根大通的研究數據指出,從2017年至2022年,全球資料中心的總耗水量,包括現場冷卻和非現場發電,每年成長6%,若依照目前AI資料中心發展速度,到2030年,用水量可能會要升至每天達到4.5億加侖,相當於每天需要681個奧運標準游泳池的水,來冷卻全球資料中心。

耗水量的提升最直接的影響就是未來水資源較稀缺地區的資料中心,可能會因高耗水需求面臨競爭加劇,導致水資源供應緊張,甚是會導致資料中心被迫關閉,因此各國歌際大廠紛紛祭出解決辦法,如微軟在2015年就投入大量資金在「Project Natick」,研發水下資料中心。

一個AI資料中心可能擁有上百、上千組的伺服器及機櫃,因此耗電量極高。(彭博)

AI產業背後需要的高電力 遠比想像的多

人工智慧的方便性就如同變魔術一般,下達幾個指令或是滑鼠點幾下,就能生成出一段文字,甚至是圖像及影像,但其背後會的耗能遠比想像中的多更多,報導指出,AI的能源需求分成兩大部分,一個是訓練語言模型所消耗的電力,包含設定與回應行為,第二部分則是推論階段(inference phase),將訓練到一定程度的模型置入實際場景,並透過提示(prompts),讓AI生成初始回應,而這兩個階段都有高密集的能源需求。

DataVita創辦人奎恩(Danny Quinn)曾在《英國國家廣播公司》訪問時指出,「設置傳統伺服器的標準機櫃耗電量約4瓩(kW),約等同於一個家庭住宅的用電功率;然而設置一組AI伺服器機櫃的能源需求約為20倍、80瓩」,而一個資料中心內可能又有上百、上千組的伺服器及機櫃。

另有報導指出,訓練AI模型需要如輝達GPU這類高階晶片,尤其是業界正在瘋搶的H100,就連xAI 執行長馬斯克(Elon Musk)日前也透露,訓練下一代Grok 3等模型需要10萬顆H100,據了解,一顆H100充分利用下功耗約700W,因此10萬顆H100用於AI和HPC工作負載,消耗高達70MW,而這些GPU同時需要伺服器和冷卻系統來運行,因此擁有10萬顆H100 GPU的資料中心恐怕需要約100MW的電力,這相當於一座小城市用電量。

根據數據,資料中心的電力消耗在2022年約460TWh,僅占全球電力需求2%左右,其中加密貨幣挖礦達到110TWh,可如今有AI熱潮的推動,到了2026年,資料中心用電將上看 620TWh至1050TWh,這種增加趨勢相當於增加一整個瑞典或德國的電力需求。

AI資料中心需要仰賴大量的水資源來幫助機房降溫。(美聯社)

AI大型語言模型 都有高耗水特質

事實上,不論是OpenAI的ChatGPT或是Google的Gemini,這類大型語言模型都會需要一整個倉庫的資料中心來運算,同時也仰賴大量的水資源來幫助機房降溫,若是涉及圖像、影像的生成,AI的耗能將會更高,且每到天氣較嚴熱的時候,冷卻資訊中心的耗水量還會再增加。

根據最新數據顯示,由於資料中心的使用率提高,微軟2022年用水量增加34%,Google增22%,Meta增3%。

除了摩根大通強調AI資訊中心也有高耗水的特質外,加州大學河濱分校也在研究報告指出,與ChatGPT對話一次需消耗約500毫升的水,約一瓶寶特瓶的水,而ChatGPT每月有近15億用戶,用水量可想而知,另外,微軟永續報告書中揭露,其用水量在2021至2022年增長至640萬立方公尺、增加了約34%,相當於2500個奧運規格泳池的大小,另外,還有研究員指出,微軟的美國數據中心訓練GPT-3時,可以在15天內消耗高達18萬4920加侖的水量,若是在更炎熱的地區進行夏季訓練,耗水量恐會是這個數字的好幾倍。

據了解,資料中心的用水方式與碳排放類似,用水範圍也可分為3種,第一種是用於現場伺服器冷卻的水,第二種是用於發電的場外用水,可以稱做是資料中心與發電相關的間接用水,第三種則被認為是伺服器製造供應鏈用水,其中,傳統熱電廠發電過程中用水需求巨大,因此資料中心的第二種用水足跡遠大於第一種。

未來AI將在全球迅速發展,需謹慎看待環境將面臨的衝擊。(路透)

AI雙面刃 耗能、節水當務之急

隨著科技日新月異,未來AI無疑會如雨後春筍般增長,隨之而來是需謹慎看待的環境衝擊,為支撐資料中心運作,消耗能源的程度之大,足以威脅當地電網,若能利用AI找到節能的方法,也許有助於紓解缺電之急,不過由於氣候變遷,已造成多地乾旱,因此要紓解水資源可能不太容易。

由於AI資料中心需要極大的電量進行運算,不少國家和企業路續祭出節電替代措施,如越南近來因吸引不少半導體製造業等高耗能產業進駐,十分擔憂去年夏季停電事件重演,呼籲當地包含鴻海等組裝廠能自主減少用電,另外,微軟也宣布與研究核融合發電技術的新創Helion Energy簽約,打算從該公司預計於2028年部署的首座核融合電廠購電。

不過,有專家指出,AI本身也有可能是找到節能方法的最佳途徑,施耐德電氣(Schneider Electric)執行長赫韋克(Peter Herweck)預測,AI將能在未來4年內,可以幫助大樓減少15%至25%的用電量,因為會有越來越多的住家和商用空間裝設智慧家電和電表,使用的同時,還生成龐大的數據,再依照數據的分析,便能利用AI找到可以節能的環節指認疏漏,或預測未來的維護需求,並且將建築物的操作系統調整至符合天氣和使用人數的狀態。

另外,受到全球暖化的影響,各地氣溫逐年攀升,已導致許多地區爆發乾旱問題,且乾旱範圍仍持續擴大,如今加上AI資料中心的高耗水需求,未來恐怕會有更多國家陷入水資源短缺的問題,最終可能還會迫使資料中心關閉。

因此擁有大型AI資料中心的企業,如微軟、Google及Meta都已設定目標,將在2030年之前藉由資助灌溉設施改善漏水問題,或復原濕地系統,讓地下水層新增的含水量超過業者的消耗量,而OpenAI則表示,訓練大型AI模組的確需要大量用水,「我們也相信大型語言模組有助於加速科學合作,並發現氣候解方」。

專家認為未來可以透過AI來節省居家及企業用電。(歐新社)