OpenAI 宣布 ChatGPT 大幅降價,有助于該技術(shù)更快進入主流
北京時間 3 月 10 日早間消息,為當前人工智能熱潮提供支撐的最重要“原材料”的價格正在快速下降,這將有助于這項技術(shù)更快地進入主流。然而,這也威脅到了那些希望從這股熱潮中獲利的創(chuàng)業(yè)公司的財務(wù)狀況,并可能導致行業(yè)主導權(quán)集中在一小部分公司的手中。
本文引用地址:http://cafeforensic.com/article/202303/444257.htm這里的原材料指的是大語言模型(LLM)的處理能力。這些模型支撐著 ChatGPT 和微軟新必應(yīng)搜索等服務(wù)。
運行這些模型原本需要高昂的算力成本,因此可能會嚴重拖累模型的廣泛應(yīng)用。搜索引擎 You.com 首席執(zhí)行官、知名計算機科學家理查德?索切(Richard Socher)表示,就在幾周前,You.com 使用人工智能提供搜索服務(wù)的成本還比傳統(tǒng)互聯(lián)網(wǎng)搜索高出 50%。但到上月底,由于大語言模型公司 OpenAI、Anthropic 和 Cohere 之間的激烈競爭,這一成本差異下降到只有約 5%。
幾天后,OpenAI 發(fā)布了一項新服務(wù),讓開發(fā)人員可以直接使用 ChatGPT,并將使用這項技術(shù)的價格削減了 90%。
這對客戶來說是好事,但對 OpenAI 的競爭對手來說可能是毀滅性的。包括 Anthropic 和 Inflection 在內(nèi)的許多公司已經(jīng)完成或正在融資,以支撐各自大語言模型的發(fā)展。
很少有像大語言模型這樣的技術(shù)能如此迅速地從實驗室研究直接進化到大規(guī)模商用,這也促使研究者紛紛將實驗室環(huán)境的開發(fā)過程“工業(yè)化”。性能上的大部分提升以及成本的下降主要來自運行大語言模型的底層計算平臺的優(yōu)化,以及對模型訓練和運行方式的改進。
從某種角度來看,硬件成本的大幅下降有利于所有的市場參與者。這其中包括為滿足最新人工智能模型要求而設(shè)計的高性能芯片,例如英偉達 H100 GPU。微軟在其 Azure 云計算平臺上運行 OpenAI 的模型,并向其他大語言模型公司提供相同的高性價比硬件支持。
然而,大語言模型既是科學,也是藝術(shù)。OpenAI 表示,自去年 12 月以來,ChatGPT 對于處理查詢的方式進行了“一系列系統(tǒng)范圍的優(yōu)化”,使成本降低了 90%,最終帶來了面向用戶的大幅降價。
訓練大語言模型需要花費數(shù)千萬美元,而處理這類任務(wù)的技術(shù)也在快速變化。至少在短期內(nèi),一小部分具備模型開發(fā)和訓練經(jīng)驗的人才將可以獲得更大的優(yōu)勢。
當最優(yōu)秀的技術(shù)被廣泛理解和采用時,早期參與者可能已經(jīng)獲得了先發(fā)優(yōu)勢。微軟云計算和人工智能部門負責人斯科特?格斯里(Scott Guthrie)提到了 GitHub Copilot 等新服務(wù)。該服務(wù)于去年夏季推出,向軟件開發(fā)者提供代碼建議。在被廣泛使用后,這類服務(wù)將會迅速優(yōu)化。他本周在摩根士丹利的一場投資者會議上表示,來自這類服務(wù)用戶的“信號”很快就將成為產(chǎn)品重要的差異化點。
OpenAI 競爭對手的主要希望在于,提供額外的服務(wù),幫助開發(fā)者和大企業(yè)客戶更方便地使用大語言模型,以及針對細分市場探索滿足特定業(yè)務(wù)需求的模型。
例如,以色列創(chuàng)業(yè)公司 AI21 Labs 本周發(fā)布了最新的大語言模型,同時也發(fā)布了一系列 API(應(yīng)用程序接口),以提供文字概要或改寫等更高級的服務(wù)。
AI21 聯(lián)席首席執(zhí)行官奧利?格申(Ori Goshen)表示,大部分公司不會使用類似 ChatGPT 的通用模型,而是需要針對金融或醫(yī)療等行業(yè)訓練的模型,或是基于某個公司自有數(shù)據(jù)訓練的模型。
他認為,大語言模型目前還處于初級階段,還有很多工作需要完成,例如減少模型說假話的傾向,以及防止模型產(chǎn)生“幻覺”,提供與事實無關(guān)、似是而非的答案。如果希望取得成功,人工智能公司還需要持續(xù)進行前沿探索。
不過目前的事實是,這些生成式人工智能的基礎(chǔ)成本正在大幅下降。OpenAI 的降價是一個信號,表明這項技術(shù)將以非??斓乃俣冗M入大規(guī)模商用。但這同時也帶來了警示,表明這個行業(yè)未來可能不會有太多公司有實力參與。
評論