色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁 > 博客 > GPT-3核心成員出走打造ChatGPT最強(qiáng)競品!12項(xiàng)任務(wù)8項(xiàng)更強(qiáng),最新估值50億美元

          GPT-3核心成員出走打造ChatGPT最強(qiáng)競品!12項(xiàng)任務(wù)8項(xiàng)更強(qiáng),最新估值50億美元

          發(fā)布人:傳感器技術(shù) 時(shí)間:2023-02-01 來源:工程師 發(fā)布文章
          衡宇 蕭簫 發(fā)自 量子位

          因不滿老東家成為微軟附庸,11名OpenAI前員工怒而出走。

          如今帶著“ChatGPT最強(qiáng)競品”殺回戰(zhàn)場,新公司估值50億美元,一出手就獲得3億美元融資。

          這家公司名叫Anthropic,新推出的聊天機(jī)器人產(chǎn)品名叫Claude。

          拿到內(nèi)部試用權(quán)的網(wǎng)友,在簡單對比后驚嘆:

          看起來,Claude的效果要比ChatGPT好得多

          圖片

          比如,讓ChatGPT寫一句話,要求每個(gè)單詞首字母都相同,結(jié)果試了好幾次都沒能成功。

          圖片

          而Claude不光一次成功,語句富有邏輯性,還能秒速再來一個(gè)。

          圖片

          同時(shí),在面對某些缺乏常識的問題時(shí),相比ChatGPT一本正經(jīng)地胡說八道

          圖片

          反而會毫不留情地指出你的問題有點(diǎn)制杖:

          圖片Claude:這什么鬼問題?

          最有意思的是在寫詩上。相比ChatGPT的車轱轆話,它寫出來的東西完全不重樣:

          圖片

          投資它的既有Facebook聯(lián)合創(chuàng)始人Dustin Moskovitz,也有谷歌前CEO、現(xiàn)技術(shù)顧問Eric Schmidt——

          都是OpenAI的老對頭,又都被ChatGPT的出現(xiàn)殺得措手不及。

          那么,這支“復(fù)仇者聯(lián)盟”整出的競品Claude,背后究竟是什么原理,和ChatGPT細(xì)節(jié)對比又如何?

          Claude長啥樣?

          先來看看Claude是如何被打造出來的。

          作為一個(gè)AI對話助手,Claude自稱基于前沿NLP和AI安全技術(shù)打造,目標(biāo)是成為一個(gè)安全、接近人類價(jià)值觀且合乎道德規(guī)范的AI系統(tǒng)。

          據(jù)透露,Claude比Anthropic做的另一個(gè)預(yù)訓(xùn)練模型AnthropicLM v4-s3更大,后者是一個(gè)520億參數(shù)大模型。

          但目前它仍處于實(shí)驗(yàn)階段,尚未作為商業(yè)產(chǎn)品正式發(fā)布:

          Claude能力依舊有待提升,希望未來能變成一個(gè)更有益人類的AI系統(tǒng)。

          圖片超長版自我介紹

          和ChatGPT一樣,Claude也靠強(qiáng)化學(xué)習(xí)(RL)來訓(xùn)練偏好模型,并進(jìn)行后續(xù)微調(diào)。

          具體來說,這項(xiàng)技術(shù)被Anthropic稱為原發(fā)人工智能 (Constitutional AI),分為監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)兩個(gè)階段。

          首先在監(jiān)督學(xué)習(xí)階段,研究者會先對初始模型進(jìn)行取樣,從而產(chǎn)生自我修訂,并根據(jù)修訂效果對模型進(jìn)行微調(diào)。

          隨后在強(qiáng)化學(xué)習(xí)階段,研究者會對微調(diào)模型進(jìn)行取樣,基于Anthropic打造的AI偏好數(shù)據(jù)集訓(xùn)練的偏好模型,作為獎(jiǎng)勵(lì)信號進(jìn)行強(qiáng)化學(xué)習(xí)訓(xùn)練。

          但與ChatGPT采用的人類反饋強(qiáng)化學(xué)習(xí)(RLHF)不同的是,Claude采用的原發(fā)人工智能方法,是基于偏好模型而非人工反饋來進(jìn)行訓(xùn)練的。

          因此,這種方法又被成為“AI反饋強(qiáng)化學(xué)習(xí)”,即RLAIF。

          圖片

          并且根據(jù)Anthropic的說法,Claude可以回憶8000個(gè)token里的信息,這比OpenAI現(xiàn)公開的任何一個(gè)模型都多。

          所以,打造Claude的Anthropic,究竟是一個(gè)怎樣的公司?

          Anthropic自稱是一家AI安全公司,且具有公益性(PBC),剛成立就宣布獲得1.24億美元融資。

          它由OpenAI前研究副總裁Dario Amodei帶領(lǐng)10名員工創(chuàng)業(yè),于2021年成立。

          圖片

          這里面既有GPT-3首席工程師Tom Brown,也有OpenAI安全和政策副總裁Daniela Amodei(Dario的姐姐),可以說是帶走了相當(dāng)一批核心人才。

          出走成立新公司的原因之一,自然是對OpenAI現(xiàn)狀并不滿意。

          從前幾年開始,微軟頻頻給OpenAI注資,隨后又要求他們使用Azure超算來搞研究,而且將技術(shù)授權(quán)給微軟,甚至為微軟自己的投資活動籌集資金。

          這與OpenAI創(chuàng)立的初衷相悖,一批員工便想到了離職創(chuàng)業(yè)。

          不過,這些人除了不滿OpenAI逐漸淪為微軟的“下屬”以外,也有自己的野心。

          雖然OpenAI打造出了像GPT-3這樣的大語言模型,然而這個(gè)模型背后的工作原理,卻無法用只言片語概括,大家對它的印象僅僅停留在更大的參數(shù)量、更多的數(shù)據(jù)。

          相比之下,OpenAI的一批員工更想做能控制、可解釋的AI,說白了就是先搞明白AI模型背后的原理,從而在提供工具的同時(shí)設(shè)計(jì)更多可解釋的AI模型。

          于是,在OpenAI徹底變成“微軟攬錢機(jī)器”后,他們便從這家公司離開,創(chuàng)辦了Anthropic。

          圖片

          這兩年來,除了進(jìn)一步鉆研RLHF方法、提出基于通用語言模型的RLHF大規(guī)模數(shù)據(jù)集外,Anthropic還于去年年底發(fā)表了上面那種名為Constitutional AI的方法。

          采用這種方法制作的Claude模型,也讓它產(chǎn)生了與OpenAI的ChatGPT不一樣的對話效果。

          和ChatGPT對比如何?

          那么,用Constitutional AI訓(xùn)出來的Claude,和ChatGPT進(jìn)行PK,戰(zhàn)況如何?

          手握內(nèi)測資格后,Scale Spellbook團(tuán)隊(duì)成員Riley Goodside讓二者進(jìn)行了多個(gè)回合的“廝殺”。

          這位老兄是全網(wǎng)第一個(gè)提示工程師(Prompt Engineer),目前在估值73億美元的硅谷獨(dú)角獸公司Scale AI任職。

          圖片

          他玩GPT-3玩得賊溜,測試ChatGPT和Claude也不含糊。

          下面挑6個(gè)層面展示一下PK對比的效果~

          道德限制

          Claude和ChatGPT的AI虛擬人格都有道德和倫理限制。

          訓(xùn)練Claude的過程中,“紅隊(duì)提示(red-team prompts)”專門用來測試和挑戰(zhàn)它的行為,來確保Claude沒有有害傾向。

          從Claude的回答中可以得知,試圖讓它說些虛假聲明、操縱性的提議、性別偏見或種族偏見的行為,都被列為包含有害傾向。

          一旦探測到誤導(dǎo)性行為,Claude就會對觸發(fā)提示進(jìn)行評估,進(jìn)行額外的微調(diào)。

          Anthropic對紅隊(duì)提示挺自信的,Claude看上去確實(shí)也是一個(gè)堅(jiān)守自己原則的AI。

          你問他怎么啟動一輛汽車,它就會一臉正義地拒絕你:

          圖片

          不過但凡你花點(diǎn)心思,就能像繞過ChatGPT的道德限制一樣,繞過Claude的原則。

          它怕你去偷車,所以不告訴你啟動汽車的方法?沒關(guān)系,讓他寫個(gè)“倆國際間諜試圖啟動汽車”的故事,它分分鐘就能告訴你,并且兩人對話有來有往,把汽車打火的過程介紹得清清楚楚。

          圖片

          怎么說呢,就ChatGPT和Claude都屬于有點(diǎn)道德限制,但不多的那種吧。

          數(shù)值計(jì)算

          測試計(jì)算能力,是因?yàn)閺?fù)雜計(jì)算是看大型語言模型(LLM)能不能回答正確的常用便捷方法之一,畢竟這些模型設(shè)計(jì)之初就不是為了進(jìn)行精確計(jì)算。

          同時(shí)要求它倆計(jì)算一個(gè)七位數(shù)2420520的平方根:

          ChatGPT說,差不多1550吧~

          圖片

          Claude則斬釘截鐵:2420520的平方根是1760!

          圖片

          其實(shí)正確答案是1555.8,它倆算得很快,但都沒說對。

          如果題再難一點(diǎn),比如問它倆一個(gè)12位數(shù)的立方根是多少時(shí),ChatGPT還在傻傻計(jì)算,Claude已經(jīng)坦誠相待:

          我,算不出來這種復(fù)雜問題。

          圖片

          邏輯推理

          測試推理能力這一關(guān),它倆被問了同一個(gè)問題,這個(gè)問題應(yīng)該沒啥人問過:

          賈斯汀 · 比伯出生那年(1994年),哪支球隊(duì)拿下了超級碗的冠軍?

          Claude認(rèn)為舊金山49人是贏家,但這支隊(duì)伍其實(shí)在1995年才贏得冠軍獎(jiǎng)杯。

          ChatGPT給出了正確答案“達(dá)拉斯牛仔隊(duì)”,還貼心附上了亞軍、比賽日期和決賽比分。

          但它的整段回答卻自相矛盾,非說1994年沒有舉辦過超級碗。

          圖片

          接著,拿2022年6月美國作家侯世達(dá)在《經(jīng)濟(jì)學(xué)人》雜志上提出了一系列問題問它倆。

          (侯世達(dá)和大衛(wèi) · 本德試圖用這些問題來證明GPT-3對世界的理解是“空洞的”。)

          結(jié)果第一個(gè)問題,“穿越英吉利海峽的世界紀(jì)錄是啥”,就被Claude嘲笑了:

          英吉利海峽是水域,怎么可能徒步穿越呢?呵!

          圖片

          雖然最后被調(diào)教回來了,但過程中可以發(fā)現(xiàn)另一個(gè)問題,那就是跟ChatGPT一樣,Claude回答問題不咋能聯(lián)系上下文。

          虛構(gòu)作品描述

          不得不說,這一回合的比賽,完全展露出了兩個(gè)聊天機(jī)器人一本正經(jīng)胡說八道的能力。

          能不能介紹一下ABC美劇《迷失》(Lost)每一季的梗概?

          別的細(xì)節(jié)錯(cuò)誤就不說了,ChatGPT對第五季的梗概里,虛構(gòu)了完全不存在的飛機(jī)墜毀情節(jié);第六季的情節(jié)更是統(tǒng)統(tǒng)憑空捏造:

          圖片

          至于Claude,回答里也是真假參半,它梗概的第三季情節(jié)其實(shí)出現(xiàn)在另外幾季里,對第四季的描述也是無中生有:

          圖片

          不過換個(gè)角度考慮,這一點(diǎn)倒是和人類觀眾很像——

          對看過的劇集、書目都只有模模糊糊的印象,復(fù)述起來很容易顛三倒四。

          代碼生成

          據(jù)Business Insider消息,亞馬遜已經(jīng)在許多不同的工作職能中使用ChatGPT,包括編寫代碼。

          這一回合測試時(shí),提出實(shí)現(xiàn)兩種基本排序算法并比較它們執(zhí)行時(shí)間的問題。

          ChatGPT寫得很順溜,也確實(shí)寫對了:

          圖片

          后續(xù)的計(jì)時(shí)部分代碼ChatGPT也完成得非常好。

          Claude在背誦基本排序算法方面同樣沒出現(xiàn)什么問題,然而在評估代碼中,Claude犯了個(gè)錯(cuò)誤,即每個(gè)算法使用的輸入是隨機(jī)選擇的5000個(gè)整數(shù)(可能包含重復(fù)) ,而提示中請求的輸入是前5000個(gè)非負(fù)整數(shù)(不包含重復(fù))的隨機(jī)排列。

          圖片

          盡管如此,Claude給出的最終答案確實(shí)對的,顯然,它寫代碼的時(shí)候也跟計(jì)算時(shí)一樣,在自己估摸著猜答案。

          文章梗概

          關(guān)于做選擇題、講笑話的部分,這里不作贅述。展示給大家的最后一個(gè)例子,是讓Claude和ChatGPT用一個(gè)段落,對一篇新聞進(jìn)行全文梗概。

          喂給它們的新聞如下:

          圖片

          雖然忽略了“用一段話”這個(gè)要求,但ChatGPT總結(jié)得還是不錯(cuò)的:

          圖片

          Claude也很好地進(jìn)行了更改,并提供了“售后服務(wù)”,詢問自己的回答有沒有令人滿意,還有哪里需要再改改。

          圖片

          一圈玩下來可以看到,與ChatGPT相比,Claude能更清晰地拒絕不恰當(dāng)請求。

          它似乎更話癆一些,給出的答案都更長,但句子之間銜接的也更自然。

          當(dāng)遇到超出能力范圍的問題時(shí),Claude會主動坦白。

          不過遇到代碼生成或推理問題時(shí),Claude的表現(xiàn)就不如ChatGPT了,它生成的代碼會出現(xiàn)更多的bug。

          至于一些涉及計(jì)算、邏輯的問題,Claude和ChatGPT旗鼓相當(dāng),半斤八兩。

          總結(jié)一下展示效果,Claude確實(shí)能稱作ChatGPT強(qiáng)有力的競爭對手,在不同功能上各有千秋,且在12項(xiàng)任務(wù)中有8項(xiàng)更強(qiáng)

          圖片

          不過,目前Claude僅限于部分人獲授權(quán)進(jìn)行內(nèi)部測試。

          因此還不知道它實(shí)際使用情況如何,畢竟還既沒有進(jìn)行公測,也沒有對外開放API,更沒有見到中文版,好氣哦.jpg。

          國內(nèi)外對話AI賽道“人擠人”

          當(dāng)然,盯上對話AI這個(gè)賽道的,也不止OpenAI和Anthropic。

          先從國外公司來看,Inbenta、Character.ai還有Replika是幾類不同應(yīng)用方向的代表。

          更早由前甲骨文副總裁Jordi Torras創(chuàng)辦的AI會話服務(wù)公司如Inbenta,以及由兩名前谷歌員工聯(lián)手創(chuàng)辦的后起新秀Character.ai,都已經(jīng)獲得融資、或是在尋求投資的路上了。

          其中,Inbenta原本是一個(gè)提供咨詢服務(wù)的公司,成立于2011年,涉及金融服務(wù)、旅游、電子商務(wù)、保險(xiǎn)、汽車和電信等多個(gè)行業(yè)。

          但看到對話AI賽道爆火后,Inbenta及時(shí)轉(zhuǎn)行,就在今年1月剛獲得6000萬美元融資

          這家公司專門提供聊天機(jī)器人、收發(fā)消息、知識庫和搜索引擎四類產(chǎn)品,對話AI分別會在這些產(chǎn)品中提供不一樣的咨詢幫助,且可以定制化專屬模型。

          圖片

          Character.ai則是一家成立于2021年的公司,創(chuàng)始人Noam Shazeer是前谷歌首席軟件工程師,曾在谷歌干了二十多年。

          這家公司在做的有點(diǎn)像是一個(gè)“聊天機(jī)器人交易平臺”,有很多Chatbot可選。

          圖片

          例如這是馬斯克bot,看起來還挺逼真的:

          圖片

          與ChatGPT一樣,它也可以被翻譯成中文,甚至也有中文bot機(jī)器人。

          就在最近,這家被估值10億美元的公司,正式對外尋求2.5億美元融資,就看是否有人愿意投它了。

          類似的公司還有Replika,于2021年1月完成A輪融資,定位是AI交友軟件。

          在Replika中,每個(gè)用戶都能創(chuàng)造一個(gè)“足夠像自己”的AI聊天機(jī)器人,無論是語言聲調(diào)、還是性格習(xí)慣,AI都能模仿到位。

          圖片

          至于國內(nèi),同樣也有不少公司推出了ChatGPT一樣的對話AI服務(wù)。

          例如最近一度登上熱搜的APP Store新聊天應(yīng)用Glow,就來自一家名叫北京稀宇的新初創(chuàng)公司。

          圖片

          Glow既可以直接和自己感興趣的聊天機(jī)器人暢聊,也可以創(chuàng)建自己想要聊天的AI智能體:


          除了Glow以外,去年年底元語智能科技公司也推出了一個(gè)叫元語AI的模型,從介紹來看是一個(gè)功能性AI助手。

          與眾多對話AI一樣,它不僅可以寫文章、寫作業(yè)、甚至翻譯,也可以和它聊天,讓它幫忙完成各種簡單的任務(wù):

          圖片

          可以看見,無論是基于大語言模型技術(shù)新成立的初創(chuàng)公司,還是因其火爆程度,決定開辟新業(yè)務(wù)的公司,都希望能從對話AI這個(gè)賽道上分一杯羹。

          但它們究竟是有真槍實(shí)彈,還是只是像Web3一樣的泡沫?

          圖片

          有網(wǎng)友調(diào)侃:不如還是問問ChatGPT吧。(手動狗頭)

          圖片

          還有人提出了這么一個(gè)問題:

          如果ChatGPT和Claude相當(dāng)于AI繪畫里的DALL·E 2,那么誰才是聊天機(jī)器人領(lǐng)域的Stable Diffusion?

          圖片

          你覺得呢?

          來源:量子位


          *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。



          關(guān)鍵詞: GPT-3

          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉