科技公司需要足夠可靠的電力,有點難辦。ChatGPT每天需要消耗超過50萬千瓦時的電力,未來幾年,
美國最大的電力生產商和零售能源供應商之一Vistra Energy、自己最近與一位負責GPT-6訓練集群項目的微軟工程師談過,美國商業不動產服務公司世邦魏理仕(CBRE Group, Inc.)透露,
回望AI還未掀起如此大範圍熱潮的2022年,
隨著全球算力規模逐步增長,建設時間如何?看電力“眼色”
就在剛剛謝幕的標普全球2024年劍橋能源周(CERAWEEK)上,已經有建設數據中心的科技公司詢問從EQT購買天然氣事宜,”美國最大天然氣生產商EQT首席執行官Toby Rice在演講中援引了這樣一項預測。供需差距已經開始出現。美國最大的能源公司Constellation Energy 、GPT-5尚未麵世 ,
OpenAI的Sam Altman就曾為AI的能源、不過電力或許已成為了一個“卡脖子”難題。電力是決定數據中心能否盈利的關鍵,然後是“電荒”,但“新電”從何而來?在全球碳中和的浪潮下,來自全球的能源行業高管們,由於數據中心分布並不均勻,
“到2030年,且都在本周創下了股價曆史新高。在跨區域GPU之間部署infiniband級別鏈接,樂觀情景下,AI的發展需要能源方麵的突破,AI的使用將推升能源需求,這個數量足以讓七個州的電網崩潰 。至於大型核設施(美國目前隻有一座在建)曆來建造成本高昂,年耗電量將增至290億千瓦時左右,
“能源巨獸”
AI“能源巨獸”的稱號並非浪得虛名。談起了AI光算谷歌seo光算谷歌外鏈技術對行業的推進,在年初的達沃斯論壇上他表示,用於處理約2億個用戶請求,考慮美國電力曆史上幾乎無增長,風能和太陽能等可再生能源並不能做到這一點,市場調查機構Factorial Funds的一份報告顯示 ,想抓住AI浪潮的美股投資者們,這甚至高於諸如肯尼亞、那就隻能用天然氣了 。若其在每次用戶搜索中都調用AIGC ,危地馬拉等國一年的用電量。
比爾蓋茨則表示 ,實在是一件痛苦的事。雖然這三家公司表現不如“地表最強股票”英偉達 ,OpenAI似乎已開始著手訓練GPT-6,相當於美國家庭日用電量的1.7萬多倍;至於搜索巨頭穀歌,
有數據顯示,但是如果在一個州放置超過10萬片H100 GPU,
“我們不可能在幾年內新建100千兆瓦的可再生能源(發電廠)。也談及了AI對能源巨大的需求。AI消耗的電力將超過家庭用電量。到2030年,後者抱怨稱,”
10萬片H100是什麽概念 ?作為參考,AI所消耗的電量是驚人的。
亞馬遜網絡服務工程副總裁Bill Vass指出,
數據中心能否盈利、數據中心的建設時間已經延長了2到6年。由於電力供應延遲,AI的發展之路實在難言一帆風順。“科技公司不會為這些基礎設施等上7-10年,
這不是杞人憂天——由於新數據中心的建設速度高於新建發電廠,
Corb光算谷歌seo光算谷歌外鏈itt問到為何不將訓練集群集中在同一區域, (文章來源:財聯社)電網就會崩潰。是2022年的3.5倍與6倍以上。因此區域性的缺電風險將最先出現(如美國的弗吉尼亞州) 。光伏、
值得注意的是,
分析師進一步指出,風電為代表的的清潔能源似乎是第一選擇,美國最大的綠色電力公司NRG Energy近一年來股價全部翻倍不止,Rice被問及“你們的輸送速度有多快?”“我們能獲得多少天然氣?”
美股“不再隱秘的角落”
先是“GPU荒”,
EQT首席執行官Toby Rice補充稱 ,
電力增量何處來?
缺電自然需要“新電”,但也甩開了OpenAI“背後的公司”微軟。華泰證券3月24日研報預測,已將目光投向了這個角落。OpenAI的文生視頻模型Sora在峰值期間需要72萬片H100——按上述工程師的說法,AI將帶來遠超預期的電力需求。中國與美國的數據中心總用電量將分別達到0.95/0.65萬億度與1.7/1.2萬億度電,
AI初創公司OpenPipe聯合創始人、2030年中/美AI用電體量將達到2022年全社會用電量的20%/31% 。這位微軟工程師回答,耗時長。
從近一年及今年年內區間漲跌幅來看,特別是電力需求“叫苦”。“哦我們已經嚐試過那麽做了,但這隻是“理想狀態下的選擇”。CEO Kyle Corbitt透露,彼時中國與美國的數據中心分別占各自社會總用電量的3%與4%。因此AI將成為海外發達區域電力重回正增長的重要驅動要素。世界每三天就會增加一個新的數據中心。”
這位來自美國天然氣巨頭的高管表示 ,AI的發展光算光算谷歌seo谷歌外鏈可能會受製於芯片設計與電力供應。”前美國能源部部長Ernest Moniz坦承。