6月底,谷歌新一代開源模型Gemma2發(fā)布,相比今年早些時候推出的輕量級開源模型Gemma,Gemma2有了90億(9B)和270億(27B)兩種參數(shù)規(guī)模可用。
就在谷歌摩拳擦掌準備與OpenAI一較高下時,前幾天其發(fā)布的一份報告卻引來了媒體的“擔憂”——谷歌最新發(fā)布的環(huán)境報告指出,自2019年以來,其溫室氣體總排放量增長了48%。
僅去年一年谷歌就產(chǎn)生了1430萬噸二氧化碳,同比2022年增長13%,主要由于來自范圍2的碳排放同比增長37%。
這些數(shù)據(jù)顯然與谷歌“2030年實現(xiàn)零排放”的目標南轅北轍了,作為全球最大的互聯(lián)網(wǎng)科技巨頭之一,如此“奔放”的碳排放數(shù)據(jù)顯然會為其招來各種非議。
為何碳排放大增?
在谷歌發(fā)布的環(huán)境報告中,其將碳排放量激增歸因于數(shù)據(jù)中心的能源的使用和供應(yīng)鏈排放的增加。自互聯(lián)網(wǎng)誕生以來,數(shù)據(jù)中心一直是高能耗的代表,而今用于訓練人工智能的數(shù)據(jù)中心更是如此。
谷歌在報告中稱:“隨著我們進一步將人工智能融入到產(chǎn)品中,減少碳排放變得更具有挑戰(zhàn)性,因為人工智能計算強度的提高導致能源需求增加,而基礎(chǔ)設(shè)施投資的增加也會導致碳排放增加。”
據(jù)報告數(shù)據(jù)顯示,谷歌僅數(shù)據(jù)中心的用電量在2023年就增長了17%,預計這一“趨勢”將在未來持續(xù)下去。
實際上,谷歌的碳排放已經(jīng)是“極力優(yōu)化”的結(jié)果了,報告指出截至2023年底,谷歌連續(xù)七年實現(xiàn)100%可再生能源消耗,并借此在2023年實現(xiàn)了63%的碳排放減少。
在此基礎(chǔ)上,碳排放之所以仍然大幅增長,主要是因為數(shù)據(jù)中心耗能太大,但可再生能源有限,無可奈何。
報告原文指出,谷歌已經(jīng)努力在全球?qū)崿F(xiàn)100%可再生能源匹配的目標,但GHG協(xié)議為能源采購確立了范圍以減少范圍2的排放。這就導致在一些地區(qū)我們購買的清潔能源比我們的電力消耗量更多(例如歐洲),但在其他地區(qū)(如亞太地區(qū))由于清潔能源采購具備一定挑戰(zhàn),導致采購不足。這之間的差異是范圍2碳排放統(tǒng)計增加的原因。
總而言之,谷歌想表達的無非是“我很努力,但在AI革命的浪潮下無計可施”,頗有一種“發(fā)展才是硬道理的意思”。
的確,以如今AI爆發(fā)的勢頭,如果讓能源卡了自己的脖子,導致大模型落后于OpenAI,以至于丟了人工智能時代的“船票”,那可不是谷歌愿意看到的結(jié)果。
雖然谷歌在報告中給出了后續(xù)解法,比如正在努力提高其人工智能模型、硬件和數(shù)據(jù)中心的能源效率,以及計劃到2030 年實現(xiàn)24/7全天候無碳能源(CFE)這一終極目標。但隨著人工智能的不斷發(fā)展,大模型的不斷迭代,谷歌需要的能耗依然是只會多不會少。
未來,谷歌大概率將持續(xù)面對來自公眾及媒體關(guān)于氣候議題的壓力。
AI何以成為“吃電狂魔”?
谷歌并不是唯一一家碳排放不斷增加的科技公司。
今年5月,微軟透露自2020年以來,其二氧化碳排放量增加了近30%。而為OpenAI提供大量計算的雷德蒙德也將排放量的增加歸咎于其云計算和人工智能業(yè)務(wù)部門的數(shù)據(jù)中心設(shè)施的建設(shè)和配置。
可以說,正在自己開發(fā)大模型的互聯(lián)網(wǎng)科技公司幾乎都有“能耗/碳排放巨大”的問題。
大模型究竟有多耗電?靈碳智能創(chuàng)始人李博杰告訴虎嗅,根據(jù)推測,以GPT-4為例,其訓練使用了25000張a100.并花了90-100天進行訓練,預計總耗電量在51.000mwh - 62.000mwh左右。
而一戶普通人家一年的用電量大概在1000kwh左右,因此全部訓練耗能相當于5萬戶人家一年的用電量;同時,此耗電量相當于三峽大壩一年發(fā)電量(按一年發(fā)電1000億千瓦時計算)的0.05%,發(fā)電側(cè)使用的水量約為2.3億立方米(三峽電站標準)。
從使用側(cè)來看,1次GPT-4查詢估計消耗約0.005 kwh。根據(jù)OpenAI公布的數(shù)據(jù),GPT每天在全球有數(shù)億次查詢,保守估計每天消耗的電量為1gwh。
按一戶普通人家一年用電1000kwh算,每天模型推理耗能相當于1000戶人家一年的用電量;若按年計算,OpenAI消耗的能源在90-200gwh左右,相當于三峽大壩一年發(fā)電量(按一年發(fā)電1000億千瓦時計算)的0.2%,發(fā)電側(cè)使用的水量約為9億立方米(三峽電站標準)。
荷蘭科學家亞歷克斯·德弗里斯也在他的論文中指出,到2027年,AI耗電量或?qū)⒔咏丝诔^1000萬的瑞典或1700萬人口的荷蘭一年的總用電量,相當于當前全球用電量的0.5%。
一筆賬算完堪稱恐怖,也怪不得黃仁勛與山姆·奧特曼都會喊出“未來AI的技術(shù)取決于能源”這一論調(diào)了。
一個很重要的問題是,為什么人工智能大模型如此耗能?
從技術(shù)原理的角度看,李博杰認為主要有4點原因:
目前主流的LLM模型采用了基于transformer架構(gòu)的深度神經(jīng)網(wǎng)絡(luò)算法,這種架構(gòu)的算法通過自注意力機制處理數(shù)據(jù),并考慮序列的不同部分或句子的整個上下文,從而生成對模型結(jié)果的預測。市面上先進的LLM通常包含了萬億級別的參數(shù),參數(shù)越多,模型復雜度越高,訓練時的計算量就越大。
模型訓練的基礎(chǔ)數(shù)據(jù)(如大規(guī)模語料庫)的存儲、處理都需要消耗大量的能源。
目前的LLM都采用了并行化的方式進行計算,所以對高性能的GPU集群有著大量的要求。高性能的GPU的運作不僅消耗大量的能源,同時也對冷卻系統(tǒng)提出了很高的要求。
LLM的推理階段,用戶每一次查詢都涉及能源的消耗。
這些因素共同導致了人工智能大模型在訓練和推理過程中會消耗大量能源。
而當下巨頭混戰(zhàn)大模型的背后,映射的也是全球能源消耗的大增。根據(jù)國際能源署的數(shù)據(jù),2022年美國2.700個數(shù)據(jù)中心消耗了全國總電力的 4% 以上;到2026年,全球數(shù)據(jù)中心的電力消耗可能會翻一番。
隨后,高盛在2024年4月的一項分析預測,至本世紀末全球數(shù)據(jù)中心的用電量將增加1.8倍至3.4倍。
華盛頓郵報則是直接指出,不斷飆升的用電需求引發(fā)了人們的爭奪,試圖從老化的電網(wǎng)中榨取更多的電力。但據(jù)美國能源信息署數(shù)據(jù)顯示,2023年,美國全口徑凈發(fā)電量為41781.71億千瓦時,比上一年下降1.2%。近十年來,美國的全年凈發(fā)電量一直在40000億千瓦時的邊緣徘徊。
無可否認,能源危機(主要是電)已近在眼前,且很可能成為制約AI發(fā)展的關(guān)鍵因素。
高能耗還得持續(xù)下去
AI要想發(fā)展必須得維持這樣的高能耗嗎?
比爾蓋茨曾經(jīng)在接受媒體采訪時表示不用擔心,因為人工智能雖然消耗能源,但技術(shù)會進步,未來的能耗會持續(xù)下降。
但關(guān)鍵問題在于,當下大模型的訓練是否有盡頭?
在第六屆北京智源大會上,楊植麟、王小川等4位大模型CEO就AGI的實現(xiàn)進行了一次交流,4位CEO的共識是AGI太遙遠,只有模型降價最能推動現(xiàn)實落地。
李博杰也認為,即便是算力一直無限增加,按照目前主流大模型的技術(shù)路線,不會達到理想的AGI階段:“AGI代表了AI算法擁有類似人腦的思考模式。目前深度神經(jīng)網(wǎng)絡(luò)只是對人腦運作時的電信號傳播的一種簡化模擬。根據(jù)目前人類對人腦運作模式的了解,人腦的運作還包含神經(jīng)遞質(zhì)傳遞,基因調(diào)控,分子信號傳導,非神經(jīng)細胞調(diào)節(jié),體液因子調(diào)節(jié)等多個不同的信號運輸和調(diào)節(jié)機制。因此,基于深度神經(jīng)網(wǎng)絡(luò)的LLM發(fā)展,不會達到類腦智能的水平?!?
從另一個角度講,語言只是人類意識的其中一個維度映射,在這個過程中存在大量的信息丟失和扭曲。人類在認識世界的過程中,還包含了視覺、聽覺、觸覺、嗅覺、味覺等多個不同維度。同時,人類自身的運動學習,情緒,社會化的行為和自我意識都是AGI的重要組成部分。
“真正的AGI智能,一定是低能耗的,不過在探索的過程中,會消耗大量的能源,能源消耗是人類社會的終極問題,”李博杰表示:“從可以預測的未來看,能耗問題給人工智能發(fā)展帶來的最大的問題是加速全球社會的不平等。能源條件差的國家會在這一輪技術(shù)變革中掉隊?!?
如今,行業(yè)雖然正在嘗試解決AI高耗能的問題,比如通過模型的壓縮和蒸餾、更高性價比的專用AI芯片和硬件架構(gòu)等等,但未來高能耗還將維持一段不短的時間。
就如同科技的發(fā)展是螺旋上升的過程,AGI的實現(xiàn)也需要依賴各種學科的同步發(fā)展。當下能夠期盼的是,假如大模型算法有盡頭,希望當我們走到盡頭時,AI能夠帶來真正的生產(chǎn)力革命吧。更多股票資訊,關(guān)注財經(jīng)365!