- Published on
AI 耗電量有多大?人工智慧發展的能源挑戰與對策
AI 的耗電量究竟有多大?
近年來,人工智慧(AI)的快速發展引發了廣泛的討論,其中一個核心問題是其驚人的能源消耗。有人戲稱,只有當電費比饅頭還貴時,AI才可能無法完全取代人類,但這玩笑背後反映了AI發展中一個不容忽視的現實:高能耗可能成為制約其發展的瓶頸。前谷歌工程師凱爾·科比特在社交媒體上透露,微軟在訓練GPT-6時就遇到了電力方面的難題。
為了訓練大型AI模型,微軟的工程師們正在努力構建InfiniBand網絡,將分佈在不同地區的GPU連接起來。這項工作之所以如此複雜,是因為如果將超過10萬塊H100晶片集中部署在同一區域,當地電網將不堪重負,面臨崩潰的風險。
為什麼會這樣呢?讓我們簡單計算一下。英偉達的數據顯示,每塊H100晶片的峰值功率為700W,那麼10萬塊晶片的峰值功耗將高達7000萬瓦。有能源行業從業者指出,如此巨大的能耗相當於一座小型太陽能或風能發電廠的全部輸出。此外,我們還必須考慮到伺服器和冷卻設備等配套設施的能耗。所有這些耗電設備集中在一個小區域內,對電網的壓力可想而知。
AI 耗電:冰山一角
《紐約客》的一篇報導曾引發廣泛關注,該報導估計ChatGPT每天的耗電量可能超過50萬千瓦時。儘管如此,目前AI的耗電量與加密貨幣和傳統數據中心相比,仍然相形見絀。微軟工程師遇到的難題表明,制約AI發展的不僅是技術本身的能耗,還包括配套基礎設施的能耗以及電網的承載能力。
國際能源署(IEA)的報告顯示,2022年全球數據中心、人工智慧和加密貨幣的耗電量達到了460 TWh,約佔全球能耗的2%。IEA預測,在最壞的情況下,到2026年這些領域的用電量將達到1000 TWh,相當於整個日本的用電量。
值得注意的是,目前直接投入AI研發的能耗遠低於數據中心和加密貨幣。英偉達在AI伺服器市場佔據主導地位,2023年供應了約10萬塊晶片,年耗電量約為7.3 TWh。相比之下,2022年加密貨幣的能耗高達110 TWh,相當於整個荷蘭的用電量。
冷卻能耗:不容忽視
數據中心的能效通常用能效比(Power Usage Effectiveness,PUE)來衡量,即消耗的所有能源與IT負載消耗的能源的比值。PUE值越接近1,表示數據中心浪費的能源越少。Uptime Institute的報告顯示,2020年全球大型數據中心的平均PUE值約為1.59。這意味著,數據中心的IT設備每消耗1度電,其配套設備就會消耗0.59度電。
數據中心的額外能耗中,大部分用於冷卻系統。研究表明,冷卻系統消耗的能量可達數據中心總能耗的40%。隨著晶片的不斷升級,單台設備的功率增大,數據中心的功率密度也在不斷提升,對散熱提出了更高的要求。然而,通過改進數據中心的設計,可以顯著減少能源浪費。
不同數據中心的PUE值差異很大,這取決於冷卻系統和結構設計等因素。Uptime Institute的報告顯示,歐洲國家的PUE值已降至1.46,而亞太地區仍有超過十分之一的數據中心PUE值超過2.19。
為了實現節能減排的目標,世界各國都在採取措施。例如,歐盟要求大型數據中心安裝餘熱回收設備;美國政府投資研發更高能效的半導體;中國政府也出台政策,要求數據中心從2025年起PUE值不高於1.3,並逐步提高可再生能源的使用比例,到2032年達到100%。
科技公司用電:節流難,開源更難
隨著加密貨幣和AI的發展,各大科技公司的數據中心規模不斷擴大。據IEA統計,2022年美國擁有2700座數據中心,消耗了全國4%的電力,預計到2026年這一比例將達到6%。由於美國東西海岸的土地資源日益緊張,數據中心逐漸向中部地區轉移,但這些地區的電力供應可能無法滿足需求。
一些科技公司試圖擺脫電網的束縛,直接從小型核電站購買電力,但這需要複雜的行政審批流程。微軟嘗試使用AI輔助完成申請,而谷歌則利用AI進行運算任務調度,以提高電網運行效率,降低碳排放。至於可控核聚變何時能夠投入應用,目前仍是未知數。
氣候變暖:雪上加霜
AI的發展需要穩定而強大的電網支持,但隨著極端天氣事件的頻繁發生,許多地區的電網正變得更加脆弱。氣候變暖導致極端天氣事件更加頻繁,不僅增加了用電需求,加重了電網負擔,還會直接衝擊電網設施。IEA的報告指出,由於乾旱、降雨不足和提早融雪的影響,2023年全球水力發電佔比跌至三十年來的最低點,不足40%。
天然氣通常被視為向可再生能源過渡的橋樑,但在冬季極端天氣下,其穩定性令人擔憂。2021年,寒潮襲擊美國德克薩斯州,導致大面積停電,部分居民家中停電超過70小時。這次災難的主要原因之一是天然氣管道凍結,導致天然氣發電廠停擺。
北美電力可靠性委員會(NERC)預測,在2024-2028年,美國和加拿大將有超過300萬人口面臨越來越高的停電風險。為了保障能源安全,同時實現節能減排,許多國家將核電站視為一種過渡措施。在2023年12月舉行的聯合國氣候變化大會(COP 28)上,22個國家簽署聯合聲明,承諾到2050年將核能發電能力提升到2020年水平的3倍。與此同時,隨著中國、印度等國大力推進核電建設,IEA預測到2025年,全球核電發電量將達到歷史新高。
IEA的報告強調:“在不斷變化的氣候模式下,提高能源多樣性、提升電網跨區域調度能力以及採取更具抗衝擊性的發電方式變得至關重要。” 保障電網基礎設施不僅關係到AI技術的發展,更關乎國計民生。
AI 耗電量:不容忽視的能源挑戰
- AI 訓練的高耗能: 訓練大型 AI 模型需要大量的計算資源,導致驚人的電力消耗。例如,訓練 GPT-6 等模型需要將數萬個 GPU 連接起來,其耗電量相當於一座小型發電廠。
- 數據中心的能源消耗: 數據中心是 AI 運作的基礎,其能耗巨大。除了 IT 設備本身的耗電外,冷卻系統也佔據了相當大的比例。
- 冷卻系統的挑戰: 為了確保數據中心設備正常運作,需要大量的冷卻系統,這也進一步增加了能源消耗。
- PUE 值的重要性: 數據中心的能效比(PUE)是衡量能源效率的重要指標。降低 PUE 值可以顯著減少能源浪費。
- 各國的應對措施: 各國政府紛紛出台政策,鼓勵數據中心使用可再生能源,並提高能源效率。
- 科技公司的努力: 科技公司也在積極尋找新的解決方案,例如使用 AI 優化電網運行,並探索核能等替代能源。
- 氣候變遷的影響: 氣候變遷導致極端天氣事件頻發,對電網穩定性構成威脅,進一步加劇了能源挑戰。
- 核能的潛力: 核能被視為一種過渡措施,可以幫助實現節能減排的目標。
- 能源轉型的重要性: 提高能源多樣性,提升電網調度能力,對於確保 AI 技術的可持續發展至關重要。
AI 耗電與其他能源消耗比較
項目 | 2022 年耗電量 (TWh) | 備註 |
---|---|---|
全球數據中心、AI、加密貨幣 | 460 | 佔全球能耗約 2% |
加密貨幣 | 110 | 相當於整個荷蘭的用電量 |
英偉達 AI 晶片 | 7.3 | 2023 年供應約 10 萬塊晶片 |
預計 2026 年 | 1000 | 相當於整個日本的用電量 |
數據中心能效指標
- PUE (Power Usage Effectiveness): 數據中心總能耗 / IT 設備能耗。
- 平均 PUE 值: 2020 年全球大型數據中心平均 PUE 值約為 1.59。
- 歐洲 PUE 值: 部分歐洲國家 PUE 值已降至 1.46。
- 亞太地區 PUE 值: 亞太地區仍有超過十分之一的數據中心 PUE 值超過 2.19。
- 冷卻系統能耗: 冷卻系統能耗佔數據中心總能耗的 40% 左右。
各國的節能減排措施
- 歐盟: 要求大型數據中心安裝餘熱回收設備。
- 美國: 投資研發更高能效的半導體。
- 中國: 要求數據中心從 2025 年起 PUE 值不高於 1.3,並逐步提高可再生能源的使用比例,到 2032 年達到 100%。
科技公司降低能耗的努力
- 微軟: 嘗試使用 AI 輔助完成核電站購電申請。
- 谷歌: 利用 AI 進行運算任務調度,以提高電網運行效率,降低碳排放。
氣候變遷對能源供應的影響
- 極端天氣事件頻發: 增加了用電需求,加重了電網負擔,還會直接衝擊電網設施。
- 水力發電量下降: 2023 年全球水力發電佔比跌至三十年來的最低點,不足 40%。
- 天然氣供應不穩定: 冬季極端天氣下,天然氣管道可能凍結,導致發電廠停擺。
保障能源安全與轉型
- 核能的應用: 許多國家將核電站視為一種過渡措施。
- 提高能源多樣性: 減少對單一能源的依賴。
- 提升電網調度能力: 確保電力供應的穩定性。
- 採取更具抗衝擊性的發電方式: 應對極端天氣事件的挑戰。
結論
AI 的發展正以前所未有的速度改變世界,但其背後的能源消耗問題不容忽視。我們需要積極探索可持續的能源解決方案,以確保 AI 技術的長期發展,並實現經濟發展與環境保護的雙贏。