Arm CEO示警:美國未來20%~25%的電量將被AI數據中心消耗
品玩 / 何渝婷編譯
2024-04-11 12:47

(示意圖/取自pixabay)

Arm 公司 CEO 哈斯(Rene Haas)發出了嚴厲的警告,他表示人工智慧收集的資訊越多,他們就越聰明,但他們收集的資訊越多,需要的力量就越大,包括 OpenAI 的 ChatGPT 在內的 AI 模型需要大量電力,這可能導致到 2030 年,AI 數據中心將消耗美國 20% 至 25% 的電力需求,相比今天的 4% 大幅增加。

他特別強調,類似 ChatGPT 這樣的大語言模型耗電非常嚴重,這些模型需要「永不滿足」的電力才能有效運行,ChatGPT 每天需要處理超過 2 億次請求,其電量消耗高達每天 50 萬千瓦時。

相比之下,美國普通家庭每天的平均用電量僅為 29 千瓦時,這意味著 ChatGPT 的日耗電量是普通家庭的 1.7 萬倍以上。

Arm 現在正著眼於降低人工智慧技術的功耗,隨著電力需求的驚人成長,哈斯強調了在沒有更高效的能源解決方案的情況下推進 AI 研究的挑戰。

國際能源機構(IEA)在《2024 電力》報告中強調了這個問題,全球 AI 數據中心的耗電量將是 2022 年的十倍,並指出部分原因在於 ChatGPT 這樣的大語言模型所需的電力,遠高於Google等傳統搜尋引擎。

荷蘭中央銀行數據科學家 Alex de Vries ,在一份發表於可持續能源期刊《焦耳》上的論文中計算得出,如果Google將生成式人工智慧技術應用於所有搜尋,其每年將消耗約 290 億千瓦時電量,這相當於肯亞、瓜地馬拉和克羅埃西亞一年的總發電量。

本文為品玩授權刊登,原文標題為「Arm CEO 示警:美國未來 20%-25% 的電量將被 AI 數據中心消耗