在傳出法國將對英偉達發(fā)起反壟斷調(diào)查后不久,又有新的不好消息傳出。
據(jù)彭博社引述歐盟競爭事務(wù)負責人瑪格麗特·維斯塔格(Margrethe Vestager)的警告稱,英偉達公司的AI芯片供應(yīng)存在“巨大瓶頸”,但表示監(jiān)管機構(gòu)仍在考慮如何解決這個問題。
“我們一直在向他們詢問問題,但這還只是初步問題,”她在新加坡之行中告訴彭博社。到目前為止,這“還不具備監(jiān)管行動的條件”。
自從英偉達成為人工智能支出熱潮的最大受益者以來,監(jiān)管機構(gòu)就一直關(guān)注著它。它的圖形處理單元(簡稱GPU)因其能夠處理開發(fā)AI模型所需的大量信息的能力而受到數(shù)據(jù)中心運營商的青睞。
芯片已成為科技界最熱門的商品之一,云計算提供商相互競爭以獲取這些芯片。據(jù)估計,Nvidia的H100處理器需求旺盛,已幫助他們獲得80%以上的市場份額,領(lǐng)先于競爭對手英特爾公司和超微半導(dǎo)體公司。
盡管供應(yīng)緊張,但Vestager表示,人工智能芯片供應(yīng)的二級市場可能有助于激發(fā)創(chuàng)新和公平競爭。
但她表示,占主導(dǎo)地位的公司未來可能會面臨某些行為限制。
“如果你在市場上擁有這種主導(dǎo)地位,那么有些事情你不能做,而小公司可以做,”她說?!暗酥?,只要你做你的生意并尊重這一點,你就很好?!?
6000億美元的“大難題”
盡管高科技巨頭在人工智能基礎(chǔ)設(shè)施方面投入了大量資金,但人工智能帶來的收入增長尚未實現(xiàn),這表明生態(tài)系統(tǒng)的最終用戶價值存在巨大差距。事實上,紅杉資本分析師戴維·卡恩(David Cahn)認為,人工智能公司每年必須賺取約6000億美元才能支付其人工智能基礎(chǔ)設(shè)施(例如數(shù)據(jù)中心)的費用。
去年,Nvidia的數(shù)據(jù)中心硬件收入達到475億美元(其中大部分硬件是用于AI和HPC應(yīng)用的計算GPU)。AWS、Google、Meta、Microsoft等公司在2023年為OpenAI的ChatGPT等應(yīng)用在其AI基礎(chǔ)設(shè)施上投入了巨額資金。然而,他們能賺回這筆投資嗎?David Cahn認為,這可能意味著我們正在目睹金融泡沫的增長。
按照David Cahn的算法,6000億美元這個數(shù)字,可以通過一些簡單的數(shù)學運算來得出。
你所要做的就是將Nvidia的運行率收入預(yù)測乘以2倍,以反映AI數(shù)據(jù)中心的總成本(GPU占總擁有成本的一半,另一半包括能源、建筑物、備用發(fā)電機等)。然后你再乘以2倍,以反映GPU最終用戶的50%毛利率(例如,從Azure或AWS或GCP購買AI計算的初創(chuàng)公司或企業(yè),他們也需要賺錢)。
我們看看,自2023年9月(在當時,他認為人工智能是2000億美元難題)以來發(fā)生了什么變化?
1. 供應(yīng)短缺已經(jīng)消退:2023年末是GPU供應(yīng)短缺的高峰期。初創(chuàng)公司正在給風險投資公司打電話,給任何愿意與他們交談的人打電話,尋求幫助以獲得GPU。如今,這種擔憂幾乎完全消除了。對于我交談過的大多數(shù)人來說,現(xiàn)在以合理的交貨時間獲得GPU相對容易。
2. GPU庫存不斷增長:Nvidia在第四季度報告稱,其數(shù)據(jù)中心收入的一半左右來自大型云提供商。僅微軟一家就可能占Nvidia第四季度收入的約22%。超大規(guī)模資本支出正在達到歷史水平。這些投資是大型科技公司2024年第一季度收益的主要主題,首席執(zhí)行官們有效地告訴市場:“無論你喜不喜歡,我們都會投資GPU?!倍诜e硬件并不是一個新現(xiàn)象,一旦庫存足夠大以至于需求下降,就會成為重置的催化劑。
3. OpenAI仍然占據(jù)著AI收入的最大份額:The Information最近報道稱,OpenAI的收入現(xiàn)在為34億美元,高于2023年底的16億美元。雖然我們已經(jīng)看到少數(shù)初創(chuàng)公司的收入規(guī)模達到不到1億美元,但OpenAI與其他公司之間的差距仍然很大。除了ChatGPT,消費者今天真正使用了多少AI產(chǎn)品?想想你每月花15.49美元從Netflix或每月花11.99美元從Spotify獲得多少價值。從長遠來看,AI公司需要為消費者提供巨大的價值,才能繼續(xù)掏錢。
4. 1250億美元的缺口現(xiàn)在變成了5000億美元的缺口:在最后的分析中,我慷慨地假設(shè)谷歌、微軟、蘋果和Meta每年都能從新的AI相關(guān)收入中產(chǎn)生100億美元。我還假設(shè)甲骨文、字節(jié)跳動、阿里巴巴、騰訊、X和特斯拉每年都有50億美元的新AI收入。即使這仍然是正確的,并且我們在名單上再添加幾家公司,1250億美元的缺口現(xiàn)在也會變成5000億美元的缺口。
這還沒完——B100即將問世:今年早些時候,Nvidia宣布推出B100芯片,其性能提升了2.5倍,而成本僅增加了25%。我預(yù)計這將導(dǎo)致NVDA芯片需求的最終激增。與H100相比,B100的成本與性能相比有了顯著的改善,而且由于每個人都想在今年晚些時候買到B100.因此很可能再次出現(xiàn)供應(yīng)短缺。
在之前提出關(guān)于GPU的問題時,David Cahn收到的最主要反駁之一是“GPU資本支出就像修建鐵路”,最終火車會開過來,目的地也會到來——新的農(nóng)業(yè)出口、游樂園、購物中心等。
David Cahn表示,其實他也同意這一點,但他認為這個論調(diào)忽略了幾點:
1. 缺乏定價權(quán):在物理基礎(chǔ)設(shè)施建設(shè)的情況下,您正在建設(shè)的基礎(chǔ)設(shè)施具有一些內(nèi)在價值。如果您擁有舊金山和洛杉磯之間的軌道,那么您可能擁有某種壟斷定價權(quán),因為A地和B地之間只能鋪設(shè)這么多軌道。在GPU數(shù)據(jù)中心的情況下,定價權(quán)要小得多。GPU計算正日益成為一種按小時計量的商品。與成為寡頭壟斷的CPU云不同,構(gòu)建專用AI云的新進入者繼續(xù)涌入市場。在沒有壟斷或寡頭壟斷的情況下,高固定成本+低邊際成本的企業(yè)幾乎總是會看到價格競爭到邊際成本(例如航空公司)。
2. 投資浪費:即使是鐵路行業(yè),以及許多新技術(shù)行業(yè),投機性投資狂潮也常常導(dǎo)致高額的資本浪費?!禩he Engines that Moves Markets》是一本關(guān)于技術(shù)投資的最佳教科書,其主要觀點(確實,重點關(guān)注鐵路行業(yè))是,許多人在投機性技術(shù)浪潮中損失慘重。挑選贏家很難,但挑選輸家(就鐵路行業(yè)而言,運河)要容易得多。
3. 折舊:從技術(shù)發(fā)展史中我們得知,半導(dǎo)體趨于越來越好。Nvidia將繼續(xù)生產(chǎn)更好的下一代芯片,如B100.這將導(dǎo)致上一代芯片的折舊速度加快。由于市場低估了B100和下一代芯片的改進速度,因此它高估了今天購買的H100在3-4年后的價值。同樣,物理基礎(chǔ)設(shè)施不存在這種相似性,它不遵循任何“摩爾定律”類型的曲線,因此成本與性能的關(guān)系不斷改善。
4. 贏家與輸家:我認為我們需要仔細研究贏家和輸家——在基礎(chǔ)設(shè)施建設(shè)過剩的時期,總會有贏家。人工智能很可能是下一波變革性技術(shù)浪潮,GPU計算價格的下降實際上也有利于長期創(chuàng)新,也有利于初創(chuàng)企業(yè)。如果David Cahn的預(yù)測成真,它將主要對投資者造成傷害。創(chuàng)始人和公司建設(shè)者將繼續(xù)在人工智能領(lǐng)域發(fā)展——他們將更有可能取得成功,因為他們將受益于較低的成本和在這一試驗期間積累的經(jīng)驗。
5. 人工智能將創(chuàng)造巨大的經(jīng)濟價值。專注于為最終用戶提供價值的公司創(chuàng)建者將獲得豐厚的回報。我們正在經(jīng)歷一場可能定義一代人的技術(shù)浪潮。像Nvidia這樣的公司在推動這一轉(zhuǎn)變方面發(fā)揮了重要作用,值得稱贊,并且很可能在未來很長一段時間內(nèi)在生態(tài)系統(tǒng)中發(fā)揮關(guān)鍵作用。
不過David Cahn也重申,投機狂潮是技術(shù)的一部分,所以沒什么好害怕的。那些在這一刻保持頭腦清醒的人有機會創(chuàng)建極其重要的公司。但我們必須確保不要相信現(xiàn)在已經(jīng)從硅谷蔓延到全國乃至全世界的妄想。這種妄想認為我們都會快速致富,因為AGI明天就會到來,我們都需要儲存唯一有價值的資源,那就是GPU。
“事實上,前面的道路將是漫長的。它會有起有落。但幾乎可以肯定,它是值得的?!盌avid Cahn強調(diào)。
潛在的挑戰(zhàn)者
雖然這是一個談了很多次,但似乎也有了結(jié)果的論調(diào)。如Futurum Group首席執(zhí)行官丹尼爾·紐曼所說,“目前,世界上沒有英偉達的天敵。”
原因如下:Nvidia的圖形處理單元(GPU)最初于1999年為PC視頻游戲中的超快3D圖形而創(chuàng)建,后來被證明非常適合訓練大規(guī)模生成式AI模型,來自O(shè)penAI、Google、Meta、Anthropic和Cohere等公司推動的模型的規(guī)模越來越大,進而需要使用大量AI芯片來做訓練。多年來,Nvidia的GPU一直被認為是最強大的,也是最搶手的。
這些成本當然不菲:訓練頂級生成式AI模型需要數(shù)萬個最高端的GPU,每個GPU的價格為3萬至4萬美元。例如,埃隆·馬斯克(Elon Musk)最近表示,他的公司xAI的Grok 3模型需要在10萬個Nvidia頂級GPU上進行訓練才能成為“特別的東西”,這將為Nvidia帶來超過30億美元的芯片收入。
然而,Nvidia的成功不僅僅是芯片的產(chǎn)物,還有讓芯片變得易于使用的軟件。Nvidia的軟件生態(tài)系統(tǒng)已經(jīng)成為大量專注于AI的開發(fā)人員的首選,他們幾乎沒有動力去轉(zhuǎn)換。在上周的年度股東大會上,Nvidia首席執(zhí)行官黃仁勛稱該公司的軟件平臺CUDA(計算統(tǒng)一設(shè)備架構(gòu))是一個“良性循環(huán)”。隨著用戶的增多,Nvidia有能力投入更多資金升級該生態(tài)系統(tǒng),從而吸引更多用戶。
相比之下,Nvidia的半導(dǎo)體競爭對手AMD控制著全球GPU市場約12%的份額,該公司確實擁有具有競爭力的GPU,并且正在改進其軟件,紐曼說。但是,雖然它可以為不想被Nvidia束縛的公司提供另一種選擇,但它沒有現(xiàn)有的開發(fā)者用戶群,這些開發(fā)者認為CUDA易于使用。
此外,雖然亞馬遜的AWS、微軟Azure和谷歌云等大型云服務(wù)提供商都生產(chǎn)自己的專有芯片,但他們并不打算取代Nvidia。相反,他們希望有多種AI芯片可供選擇,以優(yōu)化自己的數(shù)據(jù)中心基礎(chǔ)設(shè)施,降低價格,并向最廣泛的潛在客戶群銷售他們的云服務(wù)。
J.Gold Associates分析師杰克·戈爾德(Jack Gold)解釋說:“Nvidia擁有早期發(fā)展勢頭,當你建立一個快速增長的市場時,其他人很難趕上?!彼硎綨vidia在創(chuàng)建其他人所沒有的獨特生態(tài)系統(tǒng)方面做得很好。
Wedbush股票研究高級副總裁Matt Bryson補充說,要取代Nvidia用于訓練大規(guī)模AI模型的芯片將特別困難,他解釋說,目前計算能力的大部分支出都流向了這一領(lǐng)域。“我認為這種動態(tài)在未來一段時間內(nèi)不會發(fā)生變化,”他說。
然而,越來越多的人工智能芯片初創(chuàng)公司,包括Cerebras、SambaNova、Groq以及最新的Etched和Axelera,都看到了從英偉達人工智能芯片業(yè)務(wù)中分一杯羹的機會。他們專注于滿足人工智能公司的特殊需求,尤其是所謂的“推理”,即通過已經(jīng)訓練過的人工智能模型運行數(shù)據(jù),讓模型輸出信息(例如,ChatGPT的每個答案都需要推理)。
例如,就在上周,Etched籌集了1.2億美元,用于開發(fā)一種專門用于運行transformer模型的專用芯片Sohu,Transformer模型是OpenAI的ChatGPT、谷歌的Gemini和Anthropic的Claude使用的一種AI模型架構(gòu)。據(jù)介紹,該芯片將由臺積電采用其4nm工藝生產(chǎn),該公司表示還已從“頂級供應(yīng)商”那里獲得高帶寬內(nèi)存和服務(wù)器供應(yīng),但沒有透露這些公司的名字。Etched還聲稱,Sohu的速度比Nvidia即將推出的Blackwell GPU“快一個數(shù)量級,而且更便宜”,八芯片Sohu服務(wù)器每秒可處理超過500000個Llama 70B token。該公司通過推斷已發(fā)布的Nvidia H100服務(wù)器MLperf基準測試數(shù)據(jù)作出了這一判斷,該基準測試顯示,八GPU服務(wù)器每秒可處理23.000個Llama 70B token。Etched首席執(zhí)行官Uberti在接受采訪時表示,一臺Sohu服務(wù)器將取代160塊H100 GPU。
荷蘭初創(chuàng)公司Axelera AI正在開發(fā)用于人工智能應(yīng)用的芯片,該公司上周宣稱也已獲得6800萬美元融資,該公司正在籌集資金以支持其雄心勃勃的增長計劃。這家總部位于埃因霍溫的公司旨在成為歐洲版的Nvidia,提供據(jù)稱比競爭對手節(jié)能10倍、價格便宜5倍的AI芯片。Axelera創(chuàng)新的核心是Thetis Core芯片,它在一個周期內(nèi)可以執(zhí)行驚人的260.000次計算,而普通計算機只能執(zhí)行16次或32次計算。這種能力使其非常適合AI神經(jīng)網(wǎng)絡(luò)計算,主要是矢量矩陣乘法。他們的芯片提供了高性能和可用性,而成本僅為現(xiàn)有市場解決方案的一小部分。這可以使AI普及,讓更廣泛的應(yīng)用程序和用戶能夠使用它。
與此同時,據(jù)報道,專注于以閃電般的速度運行模型的Groq正在以25億美元的估值籌集新資金,而Cerebras據(jù)稱在發(fā)布其最新芯片僅幾個月后就秘密提交了首次公開募股申請,該公司聲稱該芯片可以訓練比GPT-4或Gemini大10倍的AI模型。
所有這些初創(chuàng)公司一開始都可能專注于一個小市場,比如為某些任務(wù)提供更高效、更快或更便宜的芯片。他們也可能更專注于特定行業(yè)的專用芯片或個人電腦和智能手機等人工智能設(shè)備?!白詈玫牟呗允情_拓一個小眾市場,而不是試圖征服世界,而這正是他們大多數(shù)人正在嘗試做的,”Tirias Research首席分析師Jim McGregor說。
因此,也許更切題的問題是:這些初創(chuàng)公司與云提供商以及AMD和英特爾等半導(dǎo)體巨頭一起能夠占領(lǐng)多少市場份額?這還有待觀察,尤其是因為運行AI模型或推理的芯片市場仍然很新。更多股票資訊,關(guān)注財經(jīng)365!