美光、SK海力士今年HBM已售罄
隨著生成式人工智能(AI)市場(chǎng)的爆發(fā),也帶動(dòng)了 AI 芯片需求的暴漲。AI 芯片龍頭英偉達(dá)業(yè)績(jī)更是持續(xù)飆升,最新公布的第四財(cái)季財(cái)報(bào)顯示,營(yíng)收同比暴漲 265% 至 221 億美元,凈利潤(rùn)同比暴漲 769% 至 122.85 億美元,持續(xù)突破歷史記錄,推動(dòng)英偉達(dá)市值突破 2 萬億美元。
本文引用地址:http://cafeforensic.com/article/202402/455734.htm隨著 AI 芯片需求持續(xù)大漲,作為目前 AI 芯片當(dāng)中的極為關(guān)鍵的器件,HBM(高帶寬內(nèi)存)也是持續(xù)供不應(yīng)求,存儲(chǔ)大廠積極瞄準(zhǔn) HBM 擴(kuò)產(chǎn)。
其中,三星電子從 2023 年四季度開始擴(kuò)大 HBM3 的供應(yīng)。此前 2023 年四季度三星內(nèi)部消息顯示,已經(jīng)向客戶提供了下一代 HBM3E 的 8 層堆疊樣品,并計(jì)劃在今年上半年開始量產(chǎn)。到下半年,其占比預(yù)計(jì)將達(dá)到 90% 左右。負(fù)責(zé)三星美國(guó)半導(dǎo)體業(yè)務(wù)的執(zhí)行副總裁 Han Jin-man 則在今年 CES 2024 上表示,三星今年的 HBM 芯片產(chǎn)量將比去年提高 2.5 倍,明年還將繼續(xù)提高 2 倍。
三星官方還透露,公司計(jì)劃在今年第四季度之前,將 HBM 的最高產(chǎn)量提高到每月 15 萬至 17 萬件,以此來爭(zhēng)奪 2024 年的 HBM 市場(chǎng)。此前三星電子斥資 105 億韓元收購(gòu)了三星顯示位于韓國(guó)天安市的工廠和設(shè)備,以擴(kuò)大 HBM 產(chǎn)能,同時(shí)還計(jì)劃投資 7000 億至 1 萬億韓元新建封裝線。
去年 12 月,美光 CEO Sanjay Mehrotra 對(duì)外透露,得益于生成式 AI 的火爆,推動(dòng)了云端高性能 AI 芯片對(duì)于高帶寬內(nèi)存的旺盛需求,美光 2024 年的 HBM 產(chǎn)能預(yù)計(jì)已全部售罄。
美光指出,專為 AI、超級(jí)計(jì)算機(jī)設(shè)計(jì)的 HBM3E 預(yù)計(jì) 2024 年初量產(chǎn),有望于 2024 會(huì)計(jì)年度創(chuàng)造數(shù)億美元的營(yíng)收。Mehrotra 對(duì)分析師表示,「2024 年 1~12 月,美光 HBM 預(yù)估全數(shù)售罄」。
美光也相信,終端能執(zhí)行 AI 任務(wù)的 PC、移動(dòng)設(shè)備,對(duì)內(nèi)存芯片來說蘊(yùn)藏極大潛質(zhì)。
Mehrotra 預(yù)測(cè),PC 出貨量在連兩年出現(xiàn)雙位數(shù)跌幅后,有望 2024 年成長(zhǎng) 1%~5%。他相信,PC 制造商 2024 下半年擴(kuò)產(chǎn) AI PC,這些 PC 每臺(tái)需要額外 4~8Gb DRAM,固態(tài)硬盤(SSD)需求也會(huì)上揚(yáng)。
Mehrotra 還表示,長(zhǎng)期而言,許多熱門生成式 AI 程序的主戰(zhàn)場(chǎng)會(huì)是智能手機(jī),美光的產(chǎn)品組合有望抓住這次內(nèi)存及儲(chǔ)存市場(chǎng)潛藏的機(jī)會(huì)。美光計(jì)劃增加 2024 會(huì)計(jì)年度的資本支出,但高層承諾會(huì)「極度節(jié)制」(extremely disciplined)。
繼此前美光宣布今年 HBM 產(chǎn)能全部售罄之后,最新的消息顯示,SK 海力士今年的 HBM 產(chǎn)能也已經(jīng)全部售罄。
雖然整個(gè) 2023 年全球半導(dǎo)體市場(chǎng)遭遇了「寒流」,特別是存儲(chǔ)芯片市場(chǎng)更是下滑嚴(yán)重。但是,受益于生成式 AI 帶來的需求,面向 AI 應(yīng)用的 DRAM 依然保持了快速的增長(zhǎng)。
SK 海力士在 2023 年度財(cái)報(bào)當(dāng)中就曾表示,2023 年在 DRAM 方面,公司以引領(lǐng)市場(chǎng)的技術(shù)實(shí)力積極應(yīng)對(duì)了客戶需求,公司主力產(chǎn)品 DDR5 DRAM 和 HBM3 的營(yíng)收較 2022 年分別成長(zhǎng) 4 倍和 5 倍以上。
近日,SK 海力士副總裁 Kim Ki-tae(金基泰)在一篇博文中表示,今年公司的 HBM 已經(jīng)售罄,已開始為 2025 年做準(zhǔn)備。雖然外部不穩(wěn)定因素依然存在,但今年內(nèi)存半導(dǎo)體行業(yè)已開始呈現(xiàn)上升趨勢(shì)。全球大型科技客戶對(duì)產(chǎn)品的需求正在復(fù)蘇,并且隨著人工智能使用領(lǐng)域的擴(kuò)大,包括配備自己的人工智能的設(shè)備,如個(gè)人電腦和智能手機(jī),對(duì) DDR5、LPDDR5T 以及 HBM3E 等產(chǎn)品的需求預(yù)計(jì)會(huì)增加。
據(jù)悉,英偉達(dá)和 AMD 的下一代人工智能 GPU 預(yù)計(jì)將主要搭載 HBM3 內(nèi)存。例如,H100 是第一款支持 PCIe 5.0 標(biāo)準(zhǔn)的 GPU,也是第一款采用 HBM3 的 GPU,最多支持六顆 HBM3,帶寬為 3TB/s,是 A100 采用 HBM2E 的 1.5 倍,默認(rèn)顯存容量為 80GB。
2023 年 11 月英偉達(dá)發(fā)布了新一代 AI GPU 芯片 H200,以及搭載這款 GPU 的 AI 服務(wù)器平臺(tái) HGX H200 等產(chǎn)品。這款 GPU 是 H100 的升級(jí)款,依舊采用 Hopper 架構(gòu)、臺(tái)積電 4nm 制程工藝,根據(jù)英偉達(dá)官網(wǎng),H200 的 GPU 芯片沒有升級(jí),核心數(shù)、頻率沒有變化,主要的升級(jí)便是首次搭載 HBM3e 顯存,并且容量從 80GB 提升至 141GB。
得益于新升級(jí)的 HBM3e 芯片,H200 的顯存帶寬可達(dá) 4.8TB/s,比 H100 的 3.35TB/s 提升了 43%。不過這遠(yuǎn)沒有達(dá)到 HBM3e 的上限,海外分析人士稱英偉達(dá)有意降低 HBM3e 的速度,以追求穩(wěn)定。如果與傳統(tǒng) x86 服務(wù)器相比,H200 的內(nèi)存性能最高可達(dá) 110 倍。
AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量與前一代相同為 128GB,更高端 MI300X 則達(dá) 192GB,提升了 50%。AMD 稱,MI300X 提供的 HBM 密度最高是英偉達(dá) AI 芯片 H100 的 2.4 倍,其 HBM 帶寬最高是 H100 的 1.6 倍。這意味著,AMD 的芯片可以運(yùn)行比英偉達(dá)芯片更大的模型。
在 HBM 盛行的當(dāng)下,沒有一家存儲(chǔ)廠商能夠忍住不分一杯羹。
評(píng)論