隨著(zhù)人工智能的發(fā)展,其用電量急速上升問(wèn)題正在引發(fā)全球警惕,以后會(huì )發(fā)生“電荒”嗎?能耗問(wèn)題會(huì )不會(huì )成為AI發(fā)展的“絆腳石”?
節節攀升,AI成為“電老虎”?
當前,人工智能技術(shù)快速發(fā)展,芯片需求急劇增加,進(jìn)而帶動(dòng)電力需求激增。公開(kāi)數據顯示,全球數據中心市場(chǎng)的耗電量已經(jīng)從十年前的100億瓦增加到如今的1000億瓦水平。

資料圖:數據中心。中新社記者 李雋 攝
據環(huán)球時(shí)報援引《紐約客》雜志報道,OpenAI的ChatGPT聊天機器人每天消耗超過(guò)50萬(wàn)千瓦時(shí)的電力,用于處理約2億個(gè)用戶(hù)請求,相當于美國家庭每天用電量的1.7萬(wàn)多倍。
近期,特斯拉創(chuàng )始人馬斯克公開(kāi)表態(tài)稱(chēng)未來(lái)兩年人工智能行業(yè)將由“缺硅”變?yōu)?ldquo;缺電”。在今年初,OpenAI的創(chuàng )始人山姆·奧特曼也坦言,我們確實(shí)需要比我們之前想象的更多的能源,這會(huì )迫使我們更多地投資于能夠提供這種能源的技術(shù)。
根據美國機構Uptime Institute的預測,到2025年,人工智能業(yè)務(wù)在全球數據中心用電量中的占比將從2%增加到10%。
國金證券研報指出,隨著(zhù)模型迭代、參數量的擴大,以及日活人數的擴大,相關(guān)算力需求將成倍增加。
中國科學(xué)技術(shù)信息研究所人工智能中心副主任李修全接受中新財經(jīng)采訪(fǎng)時(shí)稱(chēng),近年來(lái),人工智能大模型規模、數量都在高速增長(cháng),也帶來(lái)對能源需求的快速增加。盡管短期內還不會(huì )很快出現“缺電”等問(wèn)題,但未來(lái)大規模智能化時(shí)代來(lái)臨后的能源需求激增不容忽視。
制約AI發(fā)展?能源問(wèn)題受重視
種種跡象顯示,AI的用電量可能超乎想象,這直接關(guān)系到AI行業(yè)是否能順利發(fā)展。李修全認為,智能化科技革命浪潮己勢不可擋,能源問(wèn)題是必須同步應對的關(guān)鍵問(wèn)題。
這一問(wèn)題越發(fā)引起重視,據法新社報道,與傳統計算機相比,人工智能運算能耗高、能效低并因此受到詬病。在近日舉行的英偉達GTC大會(huì )上,能耗問(wèn)題也被提及。

資料圖。陳增赟 攝
波士頓咨詢(xún)集團曾發(fā)布報告稱(chēng),到2030年底,僅美國數據中心的用電量預計就將是2022年的三倍。這一增幅主要由AI模型訓練和服務(wù)更高頻的AI查詢(xún)兩項關(guān)鍵需求因素驅動(dòng)。
中國信通院3月15日發(fā)布的《綠色算力技術(shù)創(chuàng )新研究報告(2024年)》指出,我國算力總規模近五年年均增速近30%。隨著(zhù)我國算力產(chǎn)業(yè)總體規??焖僭鲩L(cháng),以數據中心為代表的算力基礎設施整體能耗和碳排放問(wèn)題越發(fā)突出,政策開(kāi)始關(guān)注用能環(huán)節綠色。
如何應對?提升能效比或是關(guān)鍵
發(fā)展AI離不開(kāi)算力。作為AI“軍火商”,英偉達已在考慮能耗問(wèn)題。近日,其發(fā)布的新一代AI芯片,據稱(chēng)能耗比上一代有所降低。
英偉達CEO黃仁勛舉例,使用8000枚其第一代AI芯片訓練聊天機器人ChatGPT三個(gè)月,將耗能15兆瓦,而使用新一代芯片在同樣時(shí)長(cháng)內執行同樣任務(wù),僅需2000枚芯片,能耗則降低至4兆瓦。
另外,據日媒報道,英偉達計劃從三星采購高帶寬內存(HBM)芯片,這是人工智能處理器的關(guān)鍵組件,目前正在測試。
黃仁勛表示:“HBM是一個(gè)技術(shù)奇跡,它可以提高能源效率,并且隨著(zhù)耗電的人工智能芯片變得更加普遍,可以幫助世界變得更加可持續。”
值得一提的是,目前國內有很多數據中心也考慮到節能問(wèn)題。如海底數據中心以海洋作為自然冷源,將服務(wù)器安放在海底的容器中,通過(guò)海水的流動(dòng)進(jìn)行自然冷卻。
李修全稱(chēng),我們對能源需求問(wèn)題不必過(guò)于恐慌,但是必須同步應對。未來(lái),在芯片算力快速升級提升的同時(shí),單位算力所需能耗水平還將持續降低。同時(shí),液冷技術(shù)、光互聯(lián)技術(shù)將進(jìn)一步提升人工智能算力集群能效比;針對特定問(wèn)題對大模型進(jìn)行量化壓縮并再訓練成專(zhuān)用模型,很多任務(wù)不再需要用大規模高耗能模型。
責任編輯: 李穎