色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁(yè) > 博客 > 微軟又贏麻了!聯(lián)合 Meta 發(fā)布免費(fèi)商業(yè)應(yīng)用的開(kāi)源 AI 模型 Llama 2(1)

          微軟又贏麻了!聯(lián)合 Meta 發(fā)布免費(fèi)商業(yè)應(yīng)用的開(kāi)源 AI 模型 Llama 2(1)

          發(fā)布人:AI科技大本營(yíng) 時(shí)間:2023-07-24 來(lái)源:工程師 發(fā)布文章
          • 昔日的競(jìng)爭(zhēng)對(duì)手,今日的合作盟友;

          • 忽如一夜春風(fēng)來(lái),開(kāi)源大模型迎來(lái)新局面;

          • 今天是 OSS AI 勝利的一天;

          隨著 Meta 最新發(fā)布一個(gè)新的開(kāi)源 AI 模型——Llama 2,網(wǎng)上盛贊的聲音不絕于耳,甚至圖靈獎(jiǎng)得主、卷積網(wǎng)絡(luò)之父、Meta 首席人工智能科學(xué)家 Yann LeCun 更是直言,「這將改變 LLM 市場(chǎng)的格局」。

          圖片

          而 Llama 2 之所以能引起這么大的反響,不僅是因?yàn)樗情_(kāi)源的,更主要的原因便是它可以被免費(fèi)地用于研究和商業(yè)用途。與此同時(shí),Meta 還與微軟強(qiáng)強(qiáng)聯(lián)手,旨在驅(qū)動(dòng) OpenAI 的 ChatGPT、Bing Chat 和其他現(xiàn)代聊天機(jī)器人等應(yīng)用程序。

          在 Meta 看來(lái),「開(kāi)放的方法是當(dāng)今人工智能模型開(kāi)發(fā)的正確方法,特別是在技術(shù)快速發(fā)展的生成領(lǐng)域。通過(guò)公開(kāi)提供人工智能模型,它們可以使每個(gè)人受益。為企業(yè)、初創(chuàng)企業(yè)、企業(yè)家和研究人員提供其開(kāi)發(fā)的工具,這些工具的開(kāi)發(fā)規(guī)模是他們自己難以構(gòu)建的,并以他們可能無(wú)法獲得的計(jì)算能力為后盾,將為他們以令人興奮的方式進(jìn)行實(shí)驗(yàn)?!?/span>

          僅是這一點(diǎn),便是當(dāng)前很多專注于大模型開(kāi)發(fā)的企業(yè)無(wú)法做到的,也如網(wǎng)友評(píng)價(jià)的那番,格局一下被打開(kāi)。

          圖片

          Llama 2 的前身

          今日發(fā)布的 Llama 2 是 Llama(大羊駝)的后續(xù)版本。

          今年 2 月,Meta 首次公開(kāi)發(fā)布 LLaMA,作為具有非商業(yè)許可證的開(kāi)源版本。這是一種先進(jìn)的基礎(chǔ)大型語(yǔ)言模型,旨在幫助研究人員推進(jìn) AI 這一子領(lǐng)域的工作。更小、性能更高的模型(例如 LLaMA)使研究界中無(wú)法訪問(wèn)大量基礎(chǔ)設(shè)施的其他人能夠研究這些模型,從而進(jìn)一步實(shí)現(xiàn)這一重要且快速變化的領(lǐng)域的訪問(wèn)民主化。

          彼時(shí),Meta 提供多種尺寸的 LLaMA(7B、13B、33B 和 65B 參數(shù))。僅從功能上來(lái)看,Llama 可以根據(jù)提示生成文本和代碼,與其他類似聊天機(jī)器人的系統(tǒng)相當(dāng)。

          然而,當(dāng)時(shí)由于擔(dān)心被濫用,Meta 決定限制對(duì)模型的訪問(wèn),所以也只是對(duì)具有一定資格的研究者開(kāi)放,還需要寫(xiě)申請(qǐng)表格等。

          不過(guò),令人沒(méi)想到的是,不久之后便有人將 LLaMA 的權(quán)重(包括經(jīng)過(guò)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的參數(shù)值文件)泄露到了 torrent 網(wǎng)站,使得并沒(méi)有完全開(kāi)放的 LLaMA 大模型短時(shí)間內(nèi)在 AI 社區(qū)大規(guī)模擴(kuò)散開(kāi)。

          很快,經(jīng)過(guò)微調(diào)的 LLaMA 的諸多模型如雨后春筍般涌現(xiàn),“羊駝”家族一時(shí)太過(guò)擁擠,如斯坦福發(fā)布了 Alpaca(羊駝)、UC 伯克利開(kāi)源了 Vicuna(小羊駝)、華盛頓大學(xué)提出了 QLoRA 還開(kāi)源了 Guanaco(原駝)...國(guó)內(nèi)哈工大還基于中文醫(yī)學(xué)知識(shí)的 LLaMA 模型指令微調(diào)出了一個(gè)“華駝”。

          時(shí)下,Llama 2 的發(fā)布將這款開(kāi)源大模型推向一個(gè)新的高度。相比上一代 Llama 模型,經(jīng)過(guò)混合公開(kāi)數(shù)據(jù)的訓(xùn)練,Llama 2 的性能有了顯著提高。

          圖片

          Llama 2:從 7B 到 70B 參數(shù)不等

          為此,Meta 發(fā)布了一篇長(zhǎng)達(dá) 76 頁(yè)的論文《Llama 2: Open Foundation and Fine-Tuned Chat Models》詳述 Llama 2 大模型的預(yù)訓(xùn)練、微調(diào)、安全性等相關(guān)的工作。

          圖片

          • 論文地址:https://scontent-lax3-2.xx.fbcdn.net/v/t39.2365-6/10000000_663429262362723_1696968207443577320_n.pdf?_nc_cat=101&ccb=1-7&_nc_sid=3c67a6&_nc_ohc=5ol-jUSglG4AX_EKgWk&_nc_ht=scontent-lax3-2.xx&oh=00_AfC4pQWErthyr1jwgSScKeyjXW3wwEUnqvIh7MNeb-Et3g&oe=64BBB691

          據(jù)論文顯示,Llama 2 有兩種版本:Llama 2 和 Llama 2-Chat,后者針對(duì)雙向?qū)υ掃M(jìn)行了微調(diào)。Llama 2 和 Llama 2-Chat 進(jìn)一步細(xì)分為不同復(fù)雜程度的版本:70 億個(gè)參數(shù)、130 億個(gè)參數(shù)和 700 億個(gè)參數(shù)。

          圖片

          Meta 將 Llama 2 預(yù)訓(xùn)練語(yǔ)料庫(kù)的規(guī)模增加了 40%,這一款模型(基本模型)接受了 2 萬(wàn)億個(gè) token 的訓(xùn)練,上下文窗口包含了 4096 個(gè) token,相比上一代,提升了一倍。上下文窗口決定了模型一次可以處理的內(nèi)容的長(zhǎng)度。在硬件方面,Meta 都使用了 NVIDIA A100。

          Meta 還表示,Llama 2 微調(diào)模型是為類似于 ChatGPT 的聊天應(yīng)用程序開(kāi)發(fā)的,已經(jīng)接受了“超過(guò) 100 萬(wàn)條人工注釋”的訓(xùn)練。

          圖片

          不過(guò),Meta 在論文中并沒(méi)有透露訓(xùn)練數(shù)據(jù)的具體來(lái)源,只是說(shuō)它來(lái)自網(wǎng)絡(luò),其中不包括來(lái)自 Meta 的產(chǎn)品或服務(wù)的數(shù)據(jù)。

          根據(jù)官方基準(zhǔn)測(cè)試,Llama 2 在開(kāi)源模型領(lǐng)域,一馬當(dāng)先。其中,Llama 2 70B 模型的性能優(yōu)于所有開(kāi)放源碼模型。

          圖片

          和閉源的大模型相比,Llama 2 70B 在推理任務(wù)上接近 GPT-3.5,但在編碼基準(zhǔn)上存在顯著差距。同時(shí),其在性能上還無(wú)法與 OpenAI 的 GPT-4、PaLM-2-L 相媲美,在計(jì)算機(jī)編程方面 Llama 2 明顯落后于 GPT-4。

          圖片

          論及 Llama 2 此次真正的優(yōu)勢(shì),Nvidia 高級(jí) AI 科學(xué)家 Jim Fan 高度評(píng)價(jià)道:

          • Llama-2 的訓(xùn)練費(fèi)用可能超過(guò) 2000 萬(wàn)美元。Meta 通過(guò)發(fā)布具有商業(yè)友好許可的模型,為社區(qū)提供了令人難以置信的服務(wù)。由于許可證問(wèn)題,大公司的人工智能研究人員對(duì) Llama-1 持謹(jǐn)慎態(tài)度,但現(xiàn)在我認(rèn)為他們中的很多人都會(huì)加入進(jìn)來(lái),貢獻(xiàn)自己的力量。

          • Meta 的團(tuán)隊(duì)對(duì) 4K 提示進(jìn)行了人類研究,以評(píng)估 Llama-2 是否有用。他們使用 "勝率 "作為比較模型的指標(biāo),其精神與 Vicuna 基準(zhǔn)類似。70B 模型與 GPT-3.5-0301 大致持平,表現(xiàn)明顯強(qiáng)于 Falcon、MPT 和 Vicuna。

            與學(xué)術(shù)基準(zhǔn)相比,我更相信這些真實(shí)的人類評(píng)級(jí)。

          • Llama-2 還沒(méi)有達(dá)到 GPT-3.5 的水平,主要是因?yàn)樗木幋a能力較弱。在 "HumanEval"(標(biāo)準(zhǔn)編碼基準(zhǔn))上,它還不如 StarCoder 或其他許多專門(mén)為編碼而設(shè)計(jì)的模型。盡管如此,我毫不懷疑 Llama-2 將因其開(kāi)放的權(quán)重而得到顯著改善。

          • Meta 團(tuán)隊(duì)在人工智能安全問(wèn)題上不遺余力。事實(shí)上,這篇論文幾乎有一半的篇幅都在談?wù)摪踩⒓t線和評(píng)估。我們要為這種負(fù)責(zé)任的努力鼓掌!

            在之前的研究中,幫助性和安全性之間存在著棘手的權(quán)衡問(wèn)題。Meta 通過(guò)訓(xùn)練兩個(gè)獨(dú)立的 reward 模型來(lái)緩解這一問(wèn)題。這些模型還沒(méi)有開(kāi)源,但對(duì)社區(qū)來(lái)說(shuō)非常有價(jià)值。

          • 我認(rèn)為 Llama-2 將極大地推動(dòng)多模態(tài)人工智能和機(jī)器人研究。這些領(lǐng)域需要的不僅僅是黑盒子訪問(wèn) API。

            到目前為止,我們必須將復(fù)雜的感官信息(視頻、音頻、三維感知)轉(zhuǎn)換為文本描述,然后再輸入到 LLM,這樣做既笨拙又會(huì)導(dǎo)致大量信息丟失。將感官模塊直接嫁接到強(qiáng)大的 LLM 上會(huì)更有效。

          • Llama 2 的論文本身就是一部杰作。GPT-4 的技術(shù)詳解論文只分享了很少的信息,而 Llama-2 則不同,它詳細(xì)介紹了整個(gè)細(xì)節(jié),包括模型細(xì)節(jié)、訓(xùn)練階段、硬件、數(shù)據(jù)管道和注釋過(guò)程。例如,論文對(duì) RLHF 的影響進(jìn)行了系統(tǒng)分析,并提供了漂亮的可視化效果。

          • 引用第 5.1 節(jié):"我們認(rèn)為,LLMs 在某些任務(wù)中超越人類注釋者的超強(qiáng)寫(xiě)作能力,從根本上說(shuō)是由 RLHF 驅(qū)動(dòng)的"。

          圖片

          來(lái)源:https://twitter.com/DrJimFan/status/1681372700881854465

          不過(guò),值得注意的是,Llama 2 雖然允許了商業(yè)使用,但是它在社區(qū)許可協(xié)議中還添加了一條附加商業(yè)條款:

          如果在 Llama 2 版本發(fā)布之日,被許可方或被許可方的關(guān)聯(lián)公司提供的產(chǎn)品或服務(wù)的每月活躍用戶數(shù)在上一個(gè)日歷月中超過(guò) 7 億,則您必須向Meta申請(qǐng)?jiān)S可,Meta 可以自行決定向您授予該權(quán)利,并且您無(wú)權(quán)行使本協(xié)議項(xiàng)下的任何權(quán)利,除非或直到 Meta 明確授予您此類權(quán)利。

          圖片

          這意味著一些大廠,譬如亞馬遜、Google 這樣的巨頭想要使用 Llama 2,還存在一定限制。

          圖片


          *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



          關(guān)鍵詞: AI

          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉