AI 推理競賽白熱化
雖然 Nvidia GPU 在 AI 訓(xùn)練中的主導(dǎo)地位仍然是無可爭議的,但我們可能會看到早期跡象,表明在 AI 推理方面,這家科技巨頭的競爭正在加劇,尤其是在能效方面。然而,Nvidia 新 Blackwell 芯片的純粹性能可能很難被擊敗。
本文引用地址:http://cafeforensic.com/article/202409/462746.htm今天早上,ML Commons 發(fā)布了其最新的 AI 推理競賽 ML Perf Inference v4.1 的結(jié)果。本輪融資包括使用 AMD Instinct 加速器、最新 Google Trillium 加速器、多倫多初創(chuàng)公司 UntetherAI 的芯片以及 Nvidia 新 Blackwell 芯片的首次試用團隊的首次提交。另外兩家公司 Cerebras 和 FuriosaAI 宣布推出新的推理芯片,但沒有提交給 MLPerf。
就像奧林匹克運動一樣,MLPerf 有許多類別和子類別。提交數(shù)量最多的是 “datacenter-closed” 類別。封閉類別(而不是開放類別)要求提交者按原樣對給定模型運行推理,而無需對軟件進行重大修改。數(shù)據(jù)中心類別測試提交者對查詢的批量處理,而邊緣類別則側(cè)重于最大限度地減少延遲。
在每個類別中,有 9 個不同的基準(zhǔn)測試,適用于不同類型的 AI 任務(wù)。其中包括圖像生成(想想 Midjourney)和 LLM 問答(想想 ChatGPT)等流行的用例,以及同樣重要但不太引人注目的任務(wù),例如圖像分類、對象檢測和推薦引擎。
本輪比賽包括一個名為 Mix of Expert 的新基準(zhǔn)。這是 LLM 部署的一個增長趨勢,其中語言模型被分解為幾個較小的獨立語言模型,每個模型都針對特定任務(wù)進行了微調(diào),例如定期對話、解決數(shù)學(xué)問題和協(xié)助編碼。該模型可以將每個查詢定向到較小模型的適當(dāng)子集,即“專家”。MLPerf 推理工作組主席兼 AMD 高級技術(shù)人員 Miroslav Hodak 說,這種方法可以減少每個查詢的資源使用,從而降低成本并提高吞吐量。
在流行的數(shù)據(jù)中心封閉基準(zhǔn)測試中,每個基準(zhǔn)測試的獲勝者仍然是基于 Nvidia 的 H200 GPU 和 GH200 超級芯片的提交,它們將 GPU 和 CPU 組合在同一個封裝中。然而,仔細(xì)觀察性能結(jié)果會描繪出更復(fù)雜的畫面。一些提交者使用了許多加速器芯片,而另一些則只使用了一種。如果我們根據(jù)使用的加速器數(shù)量對每個提交者每秒能夠處理的查詢數(shù)量進行標(biāo)準(zhǔn)化,并僅保留每種加速器類型的性能最佳的提交,就會出現(xiàn)一些有趣的細(xì)節(jié)。(請務(wù)必注意,此方法忽略了 CPU 和互連的作用。
在每個加速器的基礎(chǔ)上,Nvidia 的 Blackwell 在 LLM Q&A 任務(wù)上的表現(xiàn)比之前的所有芯片迭代高出 2.5 倍,這是它提交的唯一基準(zhǔn)測試。Untether AI 的 speedAI240 Preview 芯片在其唯一的提交任務(wù)(圖像識別)中的性能幾乎與 H200 相當(dāng)。Google 的 Trillium 在圖像生成方面的表現(xiàn)略高于 H100 和 H200 的一半,AMD 的 Instinct 在 LLM 問答任務(wù)中的表現(xiàn)與 H100 差不多。
Blackwell 的力量
Nvidia Blackwell 成功的原因之一是它能夠使用 4 位浮點精度運行 LLM。Nvidia 及其競爭對手一直在降低 ChatGPT 等 transformer 模型部分用于表示數(shù)據(jù)的位數(shù),以加快計算速度。Nvidia 在 H100 中引入了 8 位數(shù)學(xué),此次提交標(biāo)志著 MLPerf 基準(zhǔn)測試中首次演示 4 位數(shù)學(xué)。
使用這種低精度數(shù)字的最大挑戰(zhàn)是保持準(zhǔn)確性,Nvidia 的產(chǎn)品營銷總監(jiān) Dave Salvator 說。他說,為了保持 MLPerf 提交所需的高精度,Nvidia 團隊必須在軟件方面進行重大創(chuàng)新。
Blackwell 成功的另一個重要貢獻是它的內(nèi)存帶寬幾乎翻了一番,為 8 TB/秒,而 H200 的內(nèi)存帶寬為 4.8 TB/秒。
英偉達 GB2800 格蕾絲布萊克威爾超級芯片英偉達
Nvidia 提交的 Blackwell 使用了單個芯片,但 Salvator 表示,它是為網(wǎng)絡(luò)和擴展而構(gòu)建的,并且在與 Nvidia 的 NVLink 互連結(jié)合使用時性能最佳。Blackwell GPU 支持多達 18 個 NVLink 每秒 100 GB 連接,總帶寬為每秒 1.8TB,大約是 H100 互連帶寬的兩倍。
Salvatore 認(rèn)為,隨著大型語言模型規(guī)模的增加,即使是推理也需要多 GPU 平臺來滿足需求,而 Blackwell 就是為這種可能性而構(gòu)建的?!癇lackwell 是一個平臺,”Salvator 說。
Nvidia 在預(yù)覽子類別中提交了他們基于 Blackwell 芯片的系統(tǒng),這意味著它尚未出售,但預(yù)計將在六個月后的下一個 MLPerf 版本之前上市。
Untether AI 在功耗和邊緣領(lǐng)域大放異彩
對于每個基準(zhǔn)測試,MLPerf 還包括一個電能測量對應(yīng)物,它系統(tǒng)地測試每個系統(tǒng)在執(zhí)行任務(wù)時消耗的電能。主賽事(數(shù)據(jù)中心封閉能源類別)本輪只有兩個提交者:Nvidia 和 Untether AI。雖然 Nvidia 參加了所有基準(zhǔn)測試,但 Untether 只提交了圖像識別。
提交者 | 加速器 | 加速器數(shù)量 | 每秒查詢數(shù) | 瓦 | 每秒每 Watt 的查詢數(shù) |
英偉達 | 英偉達 H200-SXM-141GB | 8 | 480,131.00 | 5,013.79 | 95.76 |
UntetherAI | UntetherAI 速度AI240 Slim | 6 | 309,752.00 | 985.52 | 314.30 |
這家初創(chuàng)公司通過使用一種稱為內(nèi)存計算的方法構(gòu)建芯片,實現(xiàn)了這種令人印象深刻的效率。UntetherAI 的芯片構(gòu)建為內(nèi)存元件網(wǎng)格,小型處理器直接散布在它們旁邊。處理器是并行化的,每個處理器都與附近內(nèi)存單元中的數(shù)據(jù)同時工作,從而大大減少了在內(nèi)存和計算內(nèi)核之間來回切換模型數(shù)據(jù)所花費的時間和精力。
“我們看到的是,執(zhí)行 AI 工作負(fù)載的 90% 的能源只是將數(shù)據(jù)從 DRAM 移動到緩存再到處理元件,”Untether AI 產(chǎn)品副總裁 Robert Beachler 說?!八?Untether 所做的就是扭轉(zhuǎn)這種情況......我不是將數(shù)據(jù)移動到計算中,而是將計算中移到數(shù)據(jù)中。
事實證明,這種方法在 MLPerf 的另一個子類別中特別成功:邊緣閉合。Beachler 說,此類別面向更多的實際用例,例如工廠車間的機器檢查、導(dǎo)視機器人和自動駕駛汽車,這些應(yīng)用對低能耗和快速處理至關(guān)重要。
提交者 | GPU 類型 | GPU 數(shù)量 | 單流延遲 (ms) | 多流延遲 (ms) | 采樣/秒 |
聯(lián)想 | NVIDIA L4 | 2 | 0.39 | 0.75 | 25,600.00 |
聯(lián)想 | 英偉達 L40S | 2 | 0.33 | 0.53 | 86,304.60 |
UntetherAI | UntetherAI speedAI240 預(yù)覽 | 2 | 0.12 | 0.21 | 140,625.00 |
在圖像識別任務(wù)上,SpeedAI240 Preview 芯片再次是唯一報告結(jié)果的 UntetherAI 芯片,其延遲性能比 NVIDIA L40S 高出 2.8 倍,其吞吐量(每秒樣本數(shù))高出 1.6 倍。這家初創(chuàng)公司也提交了該類別的強大結(jié)果,但他們的 Nvidia 加速競爭對手沒有,因此很難進行直接比較。然而,UntetherAI 的 speedAI240 Preview 芯片每個芯片的標(biāo)稱功耗為 150 瓦,而 Nvidia 的 L40s 為 350 瓦,導(dǎo)致標(biāo)稱功耗降低 2.3 倍,延遲得到改善。
Cerebras、Furiosa 跳過 MLPerf 但宣布推出新芯片
Furiosa 的新芯片以一種不同的、更高效的方式實現(xiàn)了 AI 推理的基本數(shù)學(xué)功能,即矩陣乘法。 FURIOSA (飛躍)
昨天在斯坦福大學(xué)舉行的 IEEE Hot Chips 會議上,Cerebras 推出了自己的推理服務(wù)。這家位于加利福尼亞州桑尼維爾的公司生產(chǎn)硅晶片允許的巨型芯片,從而避免了芯片之間的互連,并大大增加了其設(shè)備的內(nèi)存帶寬,這些設(shè)備主要用于訓(xùn)練大規(guī)模神經(jīng)網(wǎng)絡(luò)。現(xiàn)在,它已經(jīng)升級了其軟件堆棧,以使用其最新的計算機 CS3 進行推理。
盡管 Cerebras 沒有提交給 MLPerf,但該公司聲稱其平臺在每秒生成的 LLM 代幣方面比 H100 高 7 倍,比競爭對手的 AI 初創(chuàng)公司 Groq 的芯片高出 2 倍?!敖裉欤覀冋幱?Gen AI 的撥號時代,”Cerebras 首席執(zhí)行官兼聯(lián)合創(chuàng)始人 Andrew Feldman 說?!斑@是因為存在內(nèi)存帶寬障礙。無論是 Nvidia 的 H100 還是 MI 300 或 TPU,它們都使用相同的片外內(nèi)存,并且會產(chǎn)生相同的限制。我們突破了這一點,我們之所以這樣做,是因為我們是晶圓級的。
Hot Chips 還看到了首爾 Furiosa 的公告,展示了他們的第二代芯片 RNGD(發(fā)音為“renegade”)。Furiosa 芯片的不同之處在于其張量收縮處理器 (TCP) 架構(gòu)。AI 工作負(fù)載中的基本操作是矩陣乘法,通常作為硬件中的基元實現(xiàn)。但是,矩陣的大小和形狀(通常稱為張量)可能會有很大差異。RNGD 將這個更廣義的版本 Tensors 的乘法實現(xiàn)為基元?!霸谕评磉^程中,批量大小差異很大,因此利用給定張量形狀的固有并行性和數(shù)據(jù)重用非常重要,”Furiosa 創(chuàng)始人兼首席執(zhí)行官 June Paik 在 Hot Chips 上說。
雖然沒有提交給 MLPerf,但 Furiosa 在內(nèi)部將其 RNGD 芯片的性能與 MLPerf 的 LLM 摘要基準(zhǔn)測試進行了比較。它的性能與 Nvidia 面向邊緣的 L40S 芯片相當(dāng),而 L40S 的功率為 185 瓦,而 L40S 為 320 瓦。而且,Paik 說,隨著軟件的進一步優(yōu)化,性能將得到提高。
IBM 還宣布了其專為企業(yè)生成式 AI 工作負(fù)載設(shè)計的新型 Spyre 芯片,將于 2025 年第一季度上市。
至少,在可預(yù)見的未來,AI 推理芯片市場上的購物者不會感到無聊。
評論