爭搶英偉達,還要多久?
英偉達已經(jīng)成為「現(xiàn)象級」公司,火爆程度無出其右者,影響力遍及電子半導體產(chǎn)業(yè)的各個角落,相關(guān)產(chǎn)業(yè)鏈上的企業(yè)都在向英偉達靠攏。
本文引用地址:http://cafeforensic.com/article/202306/447314.htm之所以如此,最主要的原因自然是英偉達的營收和產(chǎn)品表現(xiàn)。
截至 4 月 30 日,英偉達 2024 財年第一季度營收 71.9 億美元,優(yōu)于市場預期的 65.2 億美元,毛利率達到 66.8%。其中,數(shù)據(jù)中心業(yè)務營收達 42.8 億美元,同比增長 14%,優(yōu)于市場預期,車用芯片和相關(guān)軟件部門營收同比暴增 114%,但與數(shù)據(jù)中心業(yè)務相比規(guī)模仍小,不到 3 億美元,PC、游戲業(yè)務表現(xiàn)不理想,營收同比下滑近 40%。
英偉達預估本季度營收將達到 110 億美元,比分析師預期的 71.5 億美元高出 50%,如此樂觀的銷售展望,證明該公司從 AI 熱潮獲得的收益,比市場想象的更多。
最近,英偉達在股市的表現(xiàn)比其營收更加亮眼,今年以來,市值已翻倍。
當?shù)貢r間 5 月 30 日,美股收盤,英偉達上漲 4.3%,市值達到 1.02 萬億美元,加入了 Alphabet、亞馬遜、蘋果和微軟組成的萬億美元市值 IT 企業(yè)陣營。目前,雖然英偉達營收遠低于芯片業(yè)龍頭英特爾,但其市值已是后者的 8 倍多。
極佳的營收和股市表現(xiàn),源于其主打 GPU 芯片銷售的火爆。
英偉達的 A100 和 H100 已成為搶手貨,特別是新款 H100,價格飆升,最近,H100 的售價在多個美國網(wǎng)店超過了 4 萬美元,電商平臺 eBay 上至少有 6 家店鋪在銷售 H100,英偉達的高端 GPU 是面向 B 端(企業(yè))的,一般不會出現(xiàn)在大眾零售市場,而 A100 和 H100 在電商平臺上被熱炒,說明其市場熱度及稀缺性。
很多企業(yè)和開發(fā)人員都在使用 H100 芯片構(gòu)建大語言模型(LLM)開發(fā)平臺,進行 AI 訓練,特別是像 GPT 這樣的大模型,一個系統(tǒng)通常需要數(shù)百個高端 AI 芯片協(xié)同工作,例如,為了打造 ChatGPT,微軟斥資數(shù)億美元購買了數(shù)萬個 A100 芯片。
不止買芯片,英偉達還推出了新服務,允許一些企業(yè)以每月 37000 美元的價格租用其搭載了 A100 的超級計算機 DGX。該項服務進一步拓展了英偉達的營收。
總之,在目前這個 AI 發(fā)展階段,英偉達的 GPU 是最好的選擇,作為稀缺品,即使再提高價格,眾多企業(yè)也要為其買單。
英偉達的吸引力
AI 和智能駕駛的火爆,使英偉達成為了眾多企業(yè)尋求合作的目標。
在汽車芯片領(lǐng)域。
最近,聯(lián)發(fā)科手機芯片業(yè)績不佳,促使該公司拓展更多業(yè)務領(lǐng)域,汽車芯片是重中之重。5 月 29 日,英偉達和聯(lián)發(fā)科宣布,雙方將合作,最早可在 2025 年推出智能座艙解決方案。
作為智能座艙主芯片市場的龍頭,高通還在不斷加碼智能駕駛芯片業(yè)務,欲以艙駕一體搶占更多的智能汽車市場份額。作為高通的主要競爭對手,英偉達和聯(lián)發(fā)科想通過聯(lián)手合作,加強競爭力,與高通爭奪市場。
據(jù)悉,聯(lián)發(fā)科將開發(fā)集成英偉達 GPU Chiplet 的汽車 SoC,搭載 NVIDIA AI 和圖形計算 IP。同時,聯(lián)發(fā)科的智能座艙解決方案將運行 NVIDIA DRIVE OS、DRIVE IX、CUDA 和 TensorRT 軟件技術(shù),提供圖形計算、人工智能、功能安全和信息安全等智能座艙功能。
在晶圓代工領(lǐng)域,英特爾在覬覦英偉達的代工訂單。
5 月 30 日,黃仁勛表示,英偉達尋求供應鏈多元性,目前,高端 GPU 芯片晶圓代工除臺積電外,也將與三星、英特爾合作。
業(yè)內(nèi)人士分析,黃仁勛拋出與其它晶圓代工廠合作的消息,是為了與臺積電議價。而對于英特爾來說,非常希望為英偉達代工生產(chǎn)芯片,即便不是最高端的也可以。
黃仁勛表示,最近收到了基于英特爾下一代制程節(jié)點的測試芯片,測試結(jié)果良好。
今年一月份,英特爾宣布,已經(jīng)簽署了基于其 Intel 3 制程節(jié)點的芯片訂單,英特爾首席執(zhí)行官 Pat Gelsinger 表示:「我很高興能夠?qū)㈩I(lǐng)先的云、邊緣和數(shù)據(jù)中心解決方案提供商作為 Intel 3 的優(yōu)先客戶」。英特爾未透露客戶的名稱,顯然,英偉達非常符合英特爾新客戶的描述。
Intel 3 制程計劃在 2023 下半年量產(chǎn),此外,英特爾還有 20A 制程,該節(jié)點有望在 2024 年初投入生產(chǎn),這為英偉達提供了更多選擇。
英偉達的單個 DGX 系統(tǒng)(具有 8 個 GPU 的服務器)包含來自眾多供應商的 35000 多個組件,目前,生成式 AI 浪潮對 GPU 的需求激增,英偉達的中高端 GPU 芯片供不應求,因此,該公司也在努力增加所有這些組件的供應渠道,芯片晶圓代工自然包括在內(nèi),這是英特爾的機會。
不止在芯片產(chǎn)業(yè)鏈中上游,下游的系統(tǒng)廠商對英偉達也是趨之若鶩。
最近,富士康工業(yè)互聯(lián)網(wǎng)、和碩、廣達和緯創(chuàng)等都在爭相使用英偉達的 Omniverse、Isaac Sim 和 Metropolis 構(gòu)建虛擬工廠、機器人仿真技術(shù)和自動化檢測設施。
特別是廣達,對于代工生產(chǎn)英偉達最新推出的超級計算機系統(tǒng) DGX GH200 非常用心,成為了首家生產(chǎn)該系統(tǒng)的中國臺灣系統(tǒng)集成商,將于今年年底出貨。
DGX 系統(tǒng)由 256 個 GH200 Grace Hopper 芯片組成,GH200 整合了英偉達最先進的加速運算和網(wǎng)絡技術(shù),它把 Grace CPU 與 H100 Tensor 核心 GPU 集合在一個模塊內(nèi)。
英偉達還推出了用于打造加速服務器的模塊化參考架構(gòu) NVIDIA MGX,系統(tǒng)制造商可使用 MGX 架構(gòu),根據(jù)各自的成本考量開發(fā)百種以上的服務器。廣達集團將率先在今年 8 月推出采用 MGX 設計的機型。
據(jù)悉,華碩、華擎旗下永擎電子、技嘉、和碩也將使用 MGX 來打造下一代加速運算電腦。
不止企業(yè),中國臺灣地區(qū)政府也在積極拉攏英偉達,為其本地相關(guān)技術(shù)發(fā)展和人才培養(yǎng)做貢獻。為了幫助英偉達在臺灣地區(qū)建設總投資為新臺幣 243 億元(約合人民幣 56.26 億元)的人工智能創(chuàng)新研發(fā)中心,臺灣地區(qū)政府將提供新臺幣 67 億元(約合人民幣 15.52 億元)的補貼。預計該項目將新聘 1000 名員工,也會與臺灣島內(nèi)大學合作培育人才。
英偉達還將建設計算平臺以供臺灣地區(qū) AI 研發(fā)中心使用,并開放部分算力給臺灣島內(nèi)的學研機構(gòu)、合作伙伴或創(chuàng)業(yè)公司研發(fā)使用。
英偉達熱會持續(xù)多久?
綜上可見,英偉達憑借其 GPU 的先天優(yōu)勢,在 AI 領(lǐng)域如魚得水,受到產(chǎn)業(yè)鏈眾多廠商的追捧。在這股 AI 發(fā)展浪潮之中,英偉達 GPU 在 AI 訓練方面的優(yōu)勢會持續(xù)一段時間,這個時間的長度,則由 AI 訓練和推理技術(shù)和芯片性能的發(fā)展決定。
目前來看,英偉達主導的 AI 訓練市場只占全部 AI 芯片需求的 20% 左右,相對而言,AI 推理芯片有更大的市場空間,目前,沒有任何一家企業(yè)(包括英偉達和英特爾)能夠通吃該市場。這個 AI 推理市場不僅很大,而且相當分散,除了現(xiàn)在主流的云計算和數(shù)據(jù)中心,邊緣側(cè)的 AI 推理需求也很多,潛在市場巨大。更重要的是,在邊緣側(cè),AI 推理對相關(guān)芯片性能的要求不像數(shù)據(jù)中心那么高,這就給其它眾多芯片企業(yè)(包括手機芯片廠商)提供了發(fā)展機會,如果市場發(fā)展起來,英偉達的市場熱度將會被多家廠商稀釋。
如前文所述,英偉達憑借當下的技術(shù)優(yōu)勢,可以把相關(guān)芯片和系統(tǒng)的售價定得很高,該公司需要抓緊當下風口賺錢,因為未來競爭會逐漸激烈起來。
近些年,包括亞馬遜、谷歌和微軟在內(nèi)的互聯(lián)網(wǎng)和系統(tǒng)大廠一直在開發(fā)適合自家應用的 AI 專用芯片。
谷歌開發(fā)了張量處理器(TPU),亞馬遜有為開發(fā)或訓練 AI 模型而設計的 Trainium,以及 AI 推理芯片 Inferentia。這兩家的芯片應用涉及亞馬遜的 Alexa 語音助手、谷歌搜索和 YouTube 等。
微軟也在開發(fā)自家的 AI 芯片,據(jù)悉,該公司計劃最早于 2024 年推出代號為 Athena 的芯片,用于內(nèi)部 AI 開發(fā)。據(jù)知情人士透露,微軟內(nèi)部正在討論是否向 Azure 云計算服務的客戶提供 Athena 芯片。
亞馬遜、谷歌、微軟和其它大廠自研 AI 芯片,一個很重要的目的就是擺脫對英偉達的依賴,降低芯片成本的同時,提升運營效率。
從 AI 芯片產(chǎn)業(yè)發(fā)展情況來看,當下的 GPU 依然是過渡期產(chǎn)品,它是在早些年,系統(tǒng)廠商多用 FPGA 進行 AI 系統(tǒng)開發(fā)之后,發(fā)展演進的結(jié)果,但隨著 AI 智能化水平的進一步提高,以及對算力、功耗和成本要求的提升,AI 芯片的主流形態(tài)還會演進,目前來看,AI 專用 ASIC 是發(fā)展方向。
以最為火爆的 AI 大模型 ChatGPT 為例,用英偉達 GPU 訓練 ChatGPT 是當下的首選,但如果有 AI 專用 ASIC 的話,執(zhí)行這些任務的速度會更快,且功耗更低。
目前,包括系統(tǒng)大廠,初創(chuàng)公司在內(nèi)的眾多企業(yè),以及各大知名科研機構(gòu)都在研究 AI 專用 ASIC,但相關(guān)技術(shù)瓶頸還難以突破,主要表現(xiàn)在性能和功耗之間的權(quán)衡,這些對設計方法、開發(fā)工具,以及芯片制程工藝提出了更高的要求,相關(guān)難題等待產(chǎn)業(yè)鏈各環(huán)節(jié)企業(yè)去攻克。
可以說,AI 專用 ASIC 難關(guān)攻克之日,就是英偉達熱退潮之時。
評論