色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁(yè) > 博客 > 英偉達(dá),遭遇反壟斷調(diào)查

          英偉達(dá),遭遇反壟斷調(diào)查

          發(fā)布人:傳感器技術(shù) 時(shí)間:2024-07-02 來源:工程師 發(fā)布文章

          據(jù)知情人士透露,英偉達(dá)即將因涉嫌反競(jìng)爭(zhēng)行為而受到法國(guó)反壟斷監(jiān)管機(jī)構(gòu)的指控,這將是第一家針對(duì)這家計(jì)算機(jī)芯片制造商采取行動(dòng)的執(zhí)法機(jī)構(gòu)。


          去年 9 月,法國(guó)對(duì)顯卡行業(yè)進(jìn)行了突擊檢查,消息人士稱,針對(duì) Nvidia 的突擊檢查就是法國(guó)所謂的異議聲明或指控書。此次突擊檢查是對(duì)云計(jì)算進(jìn)行更廣泛調(diào)查的結(jié)果。


          作為全球最大的人工智能和計(jì)算機(jī)圖形芯片制造商,在生成式人工智能應(yīng)用程序 ChatGPT 發(fā)布后,其芯片的需求猛增,引發(fā)了大西洋兩岸的監(jiān)管審查。


          法國(guó)監(jiān)管機(jī)構(gòu)向企業(yè)發(fā)布了部分反對(duì)聲明,但并非全部。英偉達(dá)拒絕置評(píng)。該公司在去年的監(jiān)管文件中表示,歐盟、中國(guó)和法國(guó)的監(jiān)管機(jī)構(gòu)曾要求提供有關(guān)其顯卡的信息。


          其他知情人士表示,由于法國(guó)當(dāng)局正在調(diào)查英偉達(dá),歐盟委員會(huì)目前不太可能擴(kuò)大初步審查。


          法國(guó)監(jiān)管機(jī)構(gòu)在上周五發(fā)布的關(guān)于生成人工智能競(jìng)爭(zhēng)的報(bào)告中指出了芯片供應(yīng)商濫用的風(fēng)險(xiǎn)。


          它對(duì)該行業(yè)對(duì) Nvidia 的 CUDA 芯片編程軟件的依賴表示擔(dān)憂,該軟件是唯一與加速計(jì)算必不可少的GPU 100% 兼容的系統(tǒng)。


          它還提到了對(duì) Nvidia 最近對(duì) CoreWeave 等專注于人工智能的云服務(wù)提供商的投資感到不安。


          如果違反法國(guó)反壟斷規(guī)定,公司將面臨高達(dá)其全球年?duì)I業(yè)額 10% 的罰款,不過它們也可以做出讓步以避免受到處罰。


          一位知情人士向路透社透露,美國(guó)司法部正牽頭調(diào)查英偉達(dá),并與聯(lián)邦貿(mào)易委員會(huì)分擔(dān)對(duì)大型科技公司的審查。


          Nvidia 經(jīng)濟(jì)學(xué):在 GPU 上每花費(fèi) 1 美元,就能賺取 5 至 7 美元


          Nvidia 表示,在四年內(nèi),公司每投資 1 美元購(gòu)買 GPU,就可以賺取 5 到 7 美元。Nvidia 超大規(guī)模和 HPC 業(yè)務(wù)副總裁兼總經(jīng)理 Ian Buck 本月在美國(guó)銀行證券 2024 年全球技術(shù)大會(huì)上表示,客戶正在投資數(shù)十億美元購(gòu)買新的 Nvidia 硬件,以跟上更新的 AI 模型,從而提高收入和生產(chǎn)力。


          競(jìng)相建設(shè)大型數(shù)據(jù)中心的公司將特別受益,并在數(shù)據(jù)中心四到五年的使用壽命內(nèi)獲得豐厚的回報(bào)。


          Buck 表示:“云提供商在購(gòu)買 GPU 上花費(fèi)的每一美元,四年內(nèi)都能收回 5 美元?!?/p>


          Buck表示,推理甚至更有利可圖。


          “這里的經(jīng)濟(jì)效益甚至更好:每花費(fèi) 1 美元,在同樣的時(shí)間段內(nèi)就能產(chǎn)生 7 美元的營(yíng)業(yè)額,并且這個(gè)數(shù)字還在增長(zhǎng),”Buck說。


          圍繞 Llama、Mistral 或 Gemma 的 AI 推理正在不斷發(fā)展,并由代幣提供服務(wù)。Nvidia 正在將開源 AI 模型打包到名為 Nvidia 推理微服務(wù) (NIM) 的容器中。


          Nvidia 表示,其今年早些時(shí)候發(fā)布的 Blackwell GPU 針對(duì)推理進(jìn)行了優(yōu)化。該 GPU 支持 FP4 和 FP6 數(shù)據(jù)類型,在運(yùn)行低強(qiáng)度 AI 工作負(fù)載時(shí)可提高能效。


          云提供商提前兩年就開始規(guī)劃數(shù)據(jù)中心,并希望了解未來的 GPU 架構(gòu)會(huì)是什么樣子。


          Nvidia 已分享了 Rubin(在 Computex 上發(fā)布的一款新 GPU)的計(jì)劃,以便云提供商可以為該 GPU 準(zhǔn)備數(shù)據(jù)中心。Rubin 將于 2026 年上市,并取代將于 2025 年上市的 Blackwell 和 Blackwell Ultra。


          “對(duì)我們來說,做到這一點(diǎn)真的很重要——數(shù)據(jù)中心不是憑空而來的,它們是大型建設(shè)項(xiàng)目。他們需要了解‘布萊克威爾數(shù)據(jù)中心會(huì)是什么樣子,它與霍珀數(shù)據(jù)中心有何不同?’”Buck說。


          Blackwell 提供了一個(gè)轉(zhuǎn)向更密集的計(jì)算形式和使用液體冷卻等技術(shù)的機(jī)會(huì),因?yàn)榭諝饫鋮s效率不高。


          Nvidia 每年都會(huì)推出一款新的 GPU,這有助于公司跟上 AI 發(fā)展的步伐,進(jìn)而幫助客戶規(guī)劃產(chǎn)品和 AI 戰(zhàn)略。


          Buck說:“Rubin已經(jīng)與那些最大的客戶交談了一段時(shí)間——他們知道我們的目標(biāo)和時(shí)間表?!?/p>


          AI 的速度和能力與硬件直接相關(guān)。在 GPU 上投入的資金越多,公司就能訓(xùn)練出更大的模型,從而帶來更多收入。


          微軟和谷歌將自己的未來寄托在人工智能上,并競(jìng)相開發(fā)更強(qiáng)大的大型語言模型。微軟嚴(yán)重依賴新的 GPU 來支撐其 GPT-4 后端,而谷歌則依賴其 TPU 來運(yùn)行其人工智能基礎(chǔ)設(shè)施。


          Nvidia 目前正在生產(chǎn) Blackwell GPU,樣品很快就會(huì)發(fā)布。但客戶可以預(yù)料,首批 GPU(將于年底發(fā)貨)將供不應(yīng)求。


          “每一項(xiàng)新技術(shù)的轉(zhuǎn)型都會(huì)帶來……供需方面的挑戰(zhàn)。我們?cè)?Hopper 上就經(jīng)歷過這種情況,Blackwell 的產(chǎn)能提升也將面臨類似的供需限制……今年年底到明年,”Buck 說道。


          Buck 表示,數(shù)據(jù)中心公司正在淘汰 CPU 基礎(chǔ)設(shè)施,為更多 GPU 騰出空間。Hopper GPU 被保留,而基于 Ampere 和 Volta 架構(gòu)的舊 GPU 則被轉(zhuǎn)售。


          Nvidia 將保留多個(gè)級(jí)別的 GPU,隨著 Blackwell 的不斷發(fā)展,Hopper 將成為其主流 AI GPU。Nvidia 已經(jīng)進(jìn)行了多項(xiàng)硬件和軟件改進(jìn),以提高 Hopper 的性能。


          所有云提供商都將提供 Blackwell GPU 和服務(wù)器。


          Buck 表示,GPT-4 模型大約有 1.8 萬億個(gè)參數(shù),由于 AI 擴(kuò)展尚未達(dá)到極限,參數(shù)數(shù)量還將繼續(xù)增長(zhǎng)。


          “人類大腦的規(guī)模為 1000 億到 150 萬億,具體數(shù)量取決于個(gè)人,取決于大腦中的神經(jīng)元和連接。目前,人工智能的規(guī)模約為 2 萬億……我們尚未進(jìn)行推理,”Buck說道。


          將會(huì)有一個(gè)包含數(shù)萬億個(gè)參數(shù)的大型模型,在此基礎(chǔ)上構(gòu)建更小、更專業(yè)的模型。參數(shù)數(shù)量對(duì) Nvidia 有利,因?yàn)樗兄阡N售更多 GPU。


          Nvidia 正在調(diào)整其 GPU 架構(gòu),從原來的基礎(chǔ)模型方法轉(zhuǎn)向混合專家模型。


          專家混合涉及多個(gè)神經(jīng)網(wǎng)絡(luò)通過相互參考來驗(yàn)證答案。


          Buck說:“1.8 萬億參數(shù)的 GPT 模型有 16 個(gè)不同的神經(jīng)網(wǎng)絡(luò),它們都試圖回答各自層的部分問題,然后商討、會(huì)面并決定正確答案是什么?!?/p>


          即將推出的 GB200 NVL72 機(jī)架式服務(wù)器配備 72 個(gè) Blackwell GPU 和 36 個(gè) Grace CPU,專為混合專家模型而設(shè)計(jì)。多個(gè) GPU 和 CPU 相互連接,從而支持混合專家模型。


          “這些家伙都可以相互通信,而不會(huì)在 IO 上受阻。這種演變?cè)谀P图軜?gòu)中不斷發(fā)生,”Buck 說。


          Nvidia 首席執(zhí)行官黃仁勛本月在 HPE 的 Discover 大會(huì)上發(fā)表了一些激烈的言論,呼吁人們購(gòu)買更多該公司的硬件和軟件。


          Nvidia 和 HPE 宣布推出一系列新產(chǎn)品,其名稱簡(jiǎn)單明了,為“Nvidia AI Computing by HPE”。


          “我們?cè)O(shè)計(jì)了小號(hào)、中號(hào)、大號(hào)和特大號(hào),你可以選擇。而且正如你所知,你買得越多,省得越多,”黃在《發(fā)現(xiàn)》雜志的舞臺(tái)上說道。


          黃仁勛今年早些時(shí)候還發(fā)表了另一條備受爭(zhēng)議的言論,當(dāng)時(shí)他說未來的程序員不需要學(xué)習(xí)如何編寫代碼。但在 Nvidia GPU 上加載 AI 模型需要了解命令行和腳本,以創(chuàng)建和運(yùn)行 AI 環(huán)境。


          Nvidia 的專有言論和在人工智能市場(chǎng)的完全主導(dǎo)地位使其成為反壟斷調(diào)查的目標(biāo)。


          當(dāng) Buck 試圖淡化人們對(duì) CUDA 的擔(dān)憂時(shí),他必須小心謹(jǐn)慎,他表示“護(hù)城河是一個(gè)復(fù)雜的詞”。


          兩位高管都表示,CUDA 是其 GPU 的必備軟件——要最大限度地發(fā)揮 GPU 的性能,就需要 CUDA。開源軟件可以與 Nvidia GPU 配合使用,但無法提供 CUDA 庫(kù)和運(yùn)行時(shí)的強(qiáng)大功能。


          向后兼容性和連續(xù)性是 Nvidia 的獨(dú)特優(yōu)勢(shì)。對(duì) Nvidia 的 AI 模型和軟件的支持可以延續(xù)到下一代 GPU。但對(duì)于英特爾的 Gaudi 等 ASIC 則不然,它們必須針對(duì)每個(gè)新模型重新進(jìn)行調(diào)整。


          來源:半導(dǎo)體行業(yè)觀察


          *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



          關(guān)鍵詞: 英偉達(dá)

          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉