色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          新聞中心

          EEPW首頁 > 智能計算 > 市場分析 > 老黃贏麻了 英偉達(dá)H100訂單排到24年

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          作者: 時間:2023-08-14 來源:量子位 收藏

          煉大模型最佳H100,全部賣空了!

          本文引用地址:http://cafeforensic.com/article/202308/449581.htm

          即使現(xiàn)在立即訂購,也要等2024年Q1甚至Q2才能用上。

          這是與關(guān)系密切的云廠商CoreWeave對華爾街日報透露的最新消息。

          從4月初開始,供應(yīng)就變得異常緊張。僅僅一周之內(nèi),預(yù)期交貨時間就從合理水平跳到了年底。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          全球最大云廠商亞馬遜AWS也證實了這一消息,CEO Adam Selipsky近期表示:

          A100和H100是最先進(jìn)的……即使對于AWS來說也很難獲得。

          更早時候,馬斯克還在一場訪談節(jié)目中也說過:現(xiàn)在比d品還難獲得。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          如果找“黃?!辟I,溢價高達(dá)25%。

          如Ebay上的價格已從出廠價約36000美元漲到了45000美元,而且貨源稀少。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          這種形勢下,國內(nèi)的百度、字節(jié)、阿里、騰訊等大型科技公司也向下了總計50億美元的A800等芯片訂單。

          其中只有10億美元的貨能今年內(nèi)交付,另外80%也要等2024年才行。

          那么現(xiàn)有高端都賣給誰了?這一波產(chǎn)能又是卡在了哪?

          H100賣給誰,老黃說了算

          ChatGPT爆發(fā)以來,擅長訓(xùn)練大模型的英偉達(dá)A100、H100成了香餑餑。

          甚至H100已經(jīng)可以作為初創(chuàng)公司的一種資產(chǎn),找投資基金獲得抵押貸款。

          OpenAI、Meta為代表的AI公司,亞馬遜、微軟為代表的云計算公司,私有云Coreweave和Lambda,以及所有想煉自家大模型的各類科技公司,需求量都巨大。

          然而賣給誰,基本是英偉達(dá)CEO黃仁勛說了算。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          據(jù)The Information消息,H100這么緊缺,英偉達(dá)把大量的新卡分配給了CoreWeave,對亞馬遜微軟等老牌云計算公司限量供應(yīng)。

          (英偉達(dá)還直接投資了CoreWeave。)

          外界分析是因為這些老牌公司都在開發(fā)自己的AI加速芯片、希望減少對英偉達(dá)的依賴,那老黃也就成全他們。

          老黃在英偉達(dá)內(nèi)部還把控了公司日常運營的方方面面,甚至包括“審查銷售代表準(zhǔn)備對小型潛在客戶說什么話”。

          全公司約40名高管直接向老黃匯報,這比Meta小扎和微軟小納的直接下屬加起來還多。

          一位英偉達(dá)前經(jīng)理透露,“在英偉達(dá),黃仁勛實際上是每一款產(chǎn)品的首席產(chǎn)品官。”

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          前陣子,還傳出老黃干了一件夸張的事:要求一些小型云計算公司提供他們的客戶名單,想了解GPU的最終使用者是誰。

          外界分析,此舉將使英偉達(dá)更了解客戶對其產(chǎn)品的需求,也引起了對英偉達(dá)可能利用這些信息謀取額外利益的擔(dān)憂。

          也有人認(rèn)為,還有一層原因是老黃想知道誰真的在用卡,而誰只是囤卡不用。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          為什么英偉達(dá)和老黃現(xiàn)在有這么大的話語權(quán)?

          主要是高端GPU供需太不平衡,根據(jù)GPU Utils網(wǎng)站的測算,H100缺口高達(dá)43萬張。

          作者Clay Pascal根據(jù)各種已知信息和傳言估計了AI行業(yè)各參與者近期還需要的H100數(shù)量。

          AI公司方面:

          OpenAI可能需要5萬張H100來訓(xùn)練GPT-5

          Meta據(jù)說需要10萬

          InflectionAI的2.2萬張卡算力集群計劃已公布

          主要AI初創(chuàng)公司如Anthropic、Character.ai、歐洲的MistraAI和HelsingAI需求各自在1萬數(shù)量級。

          云計算公司方面:

          大型公有云里,亞馬遜、微軟、谷歌、甲骨文都按3萬算,共12萬

          以CoreWeave和Lambda為代表的私有云加起來總共需要10萬

          加起來就是43.2萬了。

          這還沒算一些摩根大通、Two Sigma等也開始部署自己算力集群的金融公司和其他行業(yè)參與者。

          那么問題來了,這么大的供應(yīng)缺口,就不能多生產(chǎn)點嗎?

          老黃也想啊,但是產(chǎn)能被卡住了。

          產(chǎn)能這次卡在哪里?

          其實,臺積電已經(jīng)為英偉達(dá)調(diào)整過一次生產(chǎn)計劃了。

          不過還是沒能填補上如此巨大的缺口。

          英偉達(dá)DGX系統(tǒng)副總裁兼總經(jīng)理Charlie Boyle稱,這次并不是卡在晶圓,而是臺積電的CoWoS封裝技術(shù)產(chǎn)能遇到了瓶頸。

          與英偉達(dá)搶臺積電產(chǎn)能的正是蘋果,要在9月發(fā)布會之前搞定下一代iPhone要用的A17芯片。

          而臺積電方面近期表示,預(yù)計需要1.5年才能使封裝工藝積壓恢復(fù)正常。

          CoWoS封裝技術(shù)是臺積電的看家本領(lǐng),臺積電之所以能擊敗三星成為蘋果的獨家芯片代工廠靠的就是它。

          這項技術(shù)封裝出的產(chǎn)品性能高、可靠性強,H100能擁有3TB/s(甚至更高)的帶寬正是得益于此。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          CoWoS全名叫Chip-on-Wafer-on-Substrate,是一種在晶圓層面上的芯片集成技術(shù)。

          這項技術(shù)可以將多個芯片封裝到厚度僅有100μm的硅中介層上。

          據(jù)介紹,下一代中介層面積將達(dá)到6倍reticle,也就是約5000mm?。

          目前為止,除了臺積電,沒有哪家廠商擁有這個水平的封裝能力。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          雖然CoWoS的確強悍,但沒有它就不行嗎?其他廠商能不能代工呢?

          先不說老黃已經(jīng)表示過“不考慮新增第二家H100代工廠”。

          從現(xiàn)實上看,可能也真的不行。

          英偉達(dá)此前曾和三星有過合作,但后者從未給英偉達(dá)生產(chǎn)過H100系列產(chǎn)品,甚至其他5nm制程的芯片。

          據(jù)此有人推測,三星的技術(shù)水平可能無法滿足英偉達(dá)對尖端GPU的工藝需求。

          至于英特爾……他們的5nm產(chǎn)品好像還遲遲沒有問世。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          既然讓老黃換生產(chǎn)廠家行不通,那用戶直接改用AMD怎么樣?

          AMD,Yes?

          如果單論性能的話,AMD倒的確是慢慢追上來了。

          AMD最新推出的MI300X,擁有192GB的HBM3內(nèi)存、5.2TB/s的帶寬,可運行800億參數(shù)模型。

          而英偉達(dá)剛剛發(fā)布的DGX GH200,內(nèi)存為141GB的HBM3e,帶寬則為5TB/s。

          但這并不意味著AMD能馬上填補N卡的空缺——

          英偉達(dá)真正的“護(hù)城河”,在于CUDA平臺。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          CUDA已經(jīng)建立起一套完整的開發(fā)生態(tài),意味著用戶要是購買AMD產(chǎn)品,需要更長時間來進(jìn)行調(diào)試。

          一名某私有云公司的高管表示,沒人敢冒險花3億美元實驗部署10000個AMD GPU。

          這名高管認(rèn)為,開發(fā)調(diào)試的周期可能至少需要兩個月。

          在AI產(chǎn)品飛速更新?lián)Q代的大背景下,兩個月的空檔期對任何一家廠商來說可能都是致命的。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          不過微軟倒是向AMD伸出了橄欖枝。

          此前有傳聞稱 ,微軟準(zhǔn)備和AMD共同開發(fā)代號為“雅典娜”的AI芯片。

          而更早之前,MI200發(fā)布時,微軟第一個宣布采購,并在其云平臺Azure上部署。

          比如前一陣MSRA的新大模型基礎(chǔ)架構(gòu)RetNet就是在512張AMD MI200上訓(xùn)練的。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          在英偉達(dá)占據(jù)幾乎整個AI市場的格局下,可能需要有人帶頭沖鋒,先整個大型AMD算力集群打樣,才有人敢于跟進(jìn)。

          不過短時間內(nèi),英偉達(dá)H100、A100還是最主流的選擇。

          One More Thing

          前一陣蘋果發(fā)布最高支持192GB內(nèi)存新款M2 Ultra芯片的時候,還有不少從業(yè)者暢享過用它來微調(diào)大模型。

          畢竟蘋果M系列芯片的內(nèi)存顯存是統(tǒng)一的,192GB內(nèi)存就是192GB顯存,可是80GB H100的2.4倍,又或者24GB RTX4090的8倍。

          老黃贏麻了 英偉達(dá)H100訂單排到24年

          然鵝,有人真的把這臺機器買到手后,實際測試訓(xùn)練速度還不如英偉達(dá)RTX3080TI,微調(diào)都不劃算,訓(xùn)練就更別想了。

          畢竟M系列芯片的算力部分不是專門針對AI計算優(yōu)化的,光大顯存也沒用。

          煉大模型,看來主要還是得靠H100,而H100又求之不得。

          面對這種情況,網(wǎng)絡(luò)上甚至流傳著一首魔性的“GPU之歌”。

          很洗腦,慎入。




          關(guān)鍵詞: 英偉達(dá) GPU 計算平臺

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉