色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁 > 博客 > PromptBench:大型語言模型的對(duì)抗性基準(zhǔn)測(cè)試

          PromptBench:大型語言模型的對(duì)抗性基準(zhǔn)測(cè)試

          發(fā)布人:數(shù)據(jù)派THU 時(shí)間:2023-07-12 來源:工程師 發(fā)布文章
          PromptBench是微軟研究人員設(shè)計(jì)的一個(gè)用于測(cè)量大型語言模型(llm)對(duì)對(duì)抗性提示魯棒性的基準(zhǔn)測(cè)試。這個(gè)的工具是理解LLM的重要一步,隨著這些模型在各種應(yīng)用中越來越普遍,這個(gè)主題也變得越來越重要。


          圖片


          研究及其方法論


          PromptBench采用多種對(duì)抗性文本攻擊,研究人員生成了4000多個(gè)對(duì)抗性提示,然后通過8個(gè)任務(wù)和13個(gè)數(shù)據(jù)集對(duì)其進(jìn)行評(píng)估。這種全面的方法確保了潛在漏洞的廣泛覆蓋,并提供了對(duì)LLM性能的可靠評(píng)估。圖片


          研究結(jié)果及影響


          這項(xiàng)研究的結(jié)果表明,當(dāng)代LLM很容易受到對(duì)抗性提示的影響。這個(gè)漏洞是一個(gè)需要解決的關(guān)鍵問題,以確保llm在實(shí)際應(yīng)用程序中的可靠性和健壯性。作為數(shù)據(jù)科學(xué)家,我們必須意識(shí)到這些漏洞,并努力開發(fā)能夠抵御此類對(duì)抗性攻擊的模型。
          論文還提供了快速減輕這些漏洞的建議。這些建議對(duì)于任何使用大模型的人來說都是非常寶貴的,并且可以指導(dǎo)開發(fā)更健壯的模型。

          開源代碼


          研究人員已經(jīng)公開了研究中使用的代碼、提示和方法。我們必須繼續(xù)調(diào)查,在它們研究的基礎(chǔ)上進(jìn)行更深入的研究,共同努力推進(jìn)模型的改進(jìn),已經(jīng)包括的模型如下:

          • google/flan-t5-large
          • databricks/dolly-v1–6b
          • llama-13b
          • vicuna-13
          • cerebras/Cerebras-GPT-13B
          • EleutherAI/gpt-neox-20b
          • google/flan-ul2
          • chatgpt


          論文和研究地址:https://arxiv.org/pdf/2306.04528.pdf
          https://github.com/microsoft/promptbench


          *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



          關(guān)鍵詞: AI

          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉