色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁 > 博客 > 華人學生團隊獲國際神經(jīng)網(wǎng)絡驗證大賽佳績:總分第一,五大單項第一

          華人學生團隊獲國際神經(jīng)網(wǎng)絡驗證大賽佳績:總分第一,五大單項第一

          發(fā)布人:機器之心 時間:2021-09-12 來源:工程師 發(fā)布文章

          由來自卡內(nèi)基梅隆大學、美國東北大學、哥倫比亞大學、加州大學洛杉磯分校的成員共同開發(fā)的工具α,β-CROWN 獲得了第二屆國際神經(jīng)網(wǎng)絡驗證大賽總分第一,以及 5 個單項第一!其中該團隊的學生作者均為華人。

          1.png

          近日,一年一度的國際神經(jīng)網(wǎng)絡驗證大賽VNN-COMP落下帷幕。由來自卡內(nèi)基梅隆大學(CMU)、美國東北大學、哥倫比亞大學、加州大學洛杉磯分校(UCLA)的成員共同研發(fā)的工具α,β-CROWN獲得了第二屆國際神經(jīng)網(wǎng)絡驗證大賽總分第一,比分大幅度領先。該工具由華人學者張歡(CMU)、許凱第(東北大學)和王世褀(哥倫比亞大學)帶領的團隊開發(fā)。本文中,我們將介紹神經(jīng)網(wǎng)絡驗證的基本問題、國際神經(jīng)網(wǎng)絡驗證大賽的背景和本次競賽獲勝算法 α,β-CROWN。

          神經(jīng)網(wǎng)絡已經(jīng)成為了現(xiàn)代人工智能中非常重要的元素。然而由于其復雜性,神經(jīng)網(wǎng)絡常常被視為「黑盒」,因為我們很難精確的刻畫神經(jīng)網(wǎng)絡所表達的函數(shù)。例如,對抗樣本 (adversarial examples) 是神經(jīng)網(wǎng)絡中的一個常見的問題:當在神經(jīng)網(wǎng)絡的輸入中加入少量對抗擾動時,神經(jīng)網(wǎng)絡的輸出可能產(chǎn)生錯誤的改變,比如將物體識為和輸入毫不相關的類。這對于把神經(jīng)網(wǎng)絡應用到對安全性、魯棒性要求較高的應用中提出了很大的挑戰(zhàn)。

          神經(jīng)網(wǎng)絡驗證的主要任務是為神經(jīng)網(wǎng)絡的行為提供嚴格的理論保證,用嚴格的數(shù)學方法保證魯棒性、正確性、公平性、安全性等。比如,在魯棒性驗證問題中,我們需要證明對于一個給定的網(wǎng)絡,在某張圖片上無論采用何種對抗攻擊方法,只要對抗擾動的大小不超過某個閥值,任何攻擊都一定不會成功。

          舉例來說,給定一個二分類網(wǎng)絡 f,若假設輸入x_0為正樣本(即 f(x_0)>0),我們需要在 x_0 附近的某個區(qū)域中,證明 f(x) 均為正數(shù)。例如在下圖中,驗證算法可以證明 x_0 附近的綠色區(qū)域中 f(x)>0。越強的神經(jīng)網(wǎng)絡驗證算法,能證明安全的綠色區(qū)域就越大,最大可以達到神經(jīng)網(wǎng)絡的決策邊界(藍色虛線框)。

          2.png

          然而,神經(jīng)網(wǎng)絡驗證問題通常非常困難,因為它可以等效于一個在高維神經(jīng)網(wǎng)絡上的非凸優(yōu)化問題,所以直接采用隨機采樣或者梯度下降法都無法有效解決這個問題。隨著神經(jīng)網(wǎng)絡驗證問題受到越來越多的重視,在這個新興的領域中的已經(jīng)涌現(xiàn)出了一些十分有競爭力的算法。為了能夠更好地評價不同算法的優(yōu)劣,研究人員需要一套標準化的測評環(huán)境和benchmark。由此,神經(jīng)網(wǎng)絡驗證大賽應運而生。

          國際神經(jīng)網(wǎng)絡驗證大賽 (International Verification of Neural Networks Competition,縮寫 VNN-COMP) 由 Taylor Johnson 教授(Vanderbilt)和 Changliu Liu 教授(CMU)于 2020 年創(chuàng)立,背靠計算機輔助驗證領域國際頂會 International Conference on Computer Aided Verification (CAV),旨在為神經(jīng)網(wǎng)絡的驗證算法提供標準化的評測環(huán)境,并增強研究者之間的互相交流,創(chuàng)造一個完善的生態(tài)環(huán)境。

          本次比賽征集了 9 個 benchmark(包含一個不計分的 benchmark),其內(nèi)容涉及不同領域的神經(jīng)網(wǎng)絡(圖像分類、控制和數(shù)據(jù)庫),并包含不同類型的網(wǎng)絡結(jié)構(gòu)(前饋神經(jīng)網(wǎng)絡、卷積神經(jīng)網(wǎng)絡和殘差網(wǎng)絡)和激活函數(shù)(ReLU, Sigmoid, Maxpool)以及不同規(guī)模的網(wǎng)絡大小。這對參賽工具的通用性、兼容性帶來了很大挑戰(zhàn)。

          每個 benchmark 中都有數(shù)十個或者數(shù)百個待驗證的神經(jīng)網(wǎng)絡屬性(例如,在魯棒性驗證任務中,每個輸入數(shù)據(jù)點上的魯棒性被視為一個屬性)。每個屬性都有一個指定的超時時間(例如 3 分鐘),每個工具需要在超時時間內(nèi)之內(nèi)返回驗證結(jié)果,否則算作超時不計分。工具的運行效率在比賽中至關重要:好的驗證算法會在較短的時間內(nèi),驗證盡可能多的神經(jīng)網(wǎng)絡屬性。

          3.png

          每支隊伍提交的工具由比賽主辦方在 Amazon AWS 的機器上統(tǒng)一測評以保證比賽的公平性。每個驗證成功的屬性記 10 分,此外驗證某個屬性所需時間最少和第二少的工具將獲得額外 2 分和 1 分。同時,每個 benchmark 的成績會按照在此 benchmark 中得分最高的工具,歸一化到 100 分(總分最高為 800 分)。

          本次比賽共有來自全球多所大學的 12 支隊伍參加比賽。其中包含斯坦福大學、卡內(nèi)基梅隆大學、哥倫比亞大學、牛津大學、帝國理工等多所國際知名學校的隊伍在 8 個 benchmark 上展開激烈角逐。最終,由來自卡內(nèi)基梅隆大學 (CMU)、東北大學、哥倫比亞大學、加州大學洛杉磯分校(UCLA) 的成員共同開發(fā)的工具α,β-CROWN 以 779.2 分獲得總分第一名,并獲得 5 個 benchmark 的單項第一名;來自帝國理工團隊開發(fā)的 VeriNet 獲得 701.23 的總分排名第二;來自牛津大學的 OVAL、ETH 蘇黎世理工和 UIUC 的 ERAN 成績非常接近獲得并列第三名。

          4.png

          獲勝工具α,β-CROWN 如何取勝?

          本次比賽獲勝的工具α,β-CROWN(開源代碼:http://PaperCode.cc/a-b-CROWN)由來自卡內(nèi)基梅隆大學的博士后研究員 Huan Zhang (張歡) 帶領的團隊開發(fā),學生作者均為華人。開發(fā)者包括 Huan Zhang (CMU)、Kaidi Xu (共同一作,東北大學)、Shiqi Wang (共同一作,哥倫比亞大學)、Zhouxing Shi (UCLA)、Yihan Wang (UCLA)以及來自卡內(nèi)基梅隆大學的 Zico Kolter 教授、UCLA 的 Cho-Jui Hsieh 教授、哥倫比亞大學的 Suman Jana 教授和來自東北大學的 Xue Lin 教授。

          α,β-CROWN(也寫作 alpha-beta-CROWN)驗證器主要有兩大特色:

          1. 使用非常高效的限界傳播 (Bound Propagation) 算法來計算神經(jīng)網(wǎng)絡在給定輸入擾動空間內(nèi)的下界,然后使用分支定界法 (branch and bound) 實現(xiàn)完備神經(jīng)網(wǎng)絡驗證 (complete verification)。

          2. 整個驗證算法由 PyTorch 實現(xiàn)并可在 GPU 上高效執(zhí)行,可以不依賴于線性規(guī)劃 (LP)、混合整數(shù)規(guī)劃(MIP) 等較慢且一般只能在 CPU 上運行的驗證算法。α,β-CROWN 是當前少數(shù)幾個能完全在 GPU 上運行的神經(jīng)網(wǎng)絡驗證工具之一。

          5.png

          α,β-CROWN 中主要采用了以下幾種神經(jīng)網(wǎng)絡驗證算法:

          1.CROWN [3] 是一個基于線性松弛 (linear relaxation) 和限界傳播 (Bound Propagation) 的非完備 (incomplete) 神經(jīng)網(wǎng)絡驗證算法;

          2.LiRPA [4] 將 CROWN 擴展到任意的神經(jīng)網(wǎng)絡結(jié)構(gòu)上,例如 ResNet, LSTM 和 Transformer,并在 GPU 上高效實現(xiàn);

          3.α-CROWN [5] 采用梯度上升技術來優(yōu)化 CROWN 中的線性松弛參數(shù)α,讓限界傳播過程中產(chǎn)生邊界更緊,顯著提升了驗證效果;

          4.β-CROWN [6] 將α-CROWN 和分支定界法 (branch and bound) 相結(jié)合,通過在限界傳播過程中加入與分支約束條件對應的參數(shù)β,將非完備驗證算法 CROWN 變成完備 (complete) 驗證算法,進一步提升驗證效果。

          回望最近五年,神經(jīng)網(wǎng)絡驗證取得了突飛猛進的發(fā)展。早期的完備驗證 (complete verification) 方法在一個 4 層 CNN 網(wǎng)絡中需要大概一小時才能完成一張 CIFAR 圖片的驗證。而β-CROWN [6]通過基于 GPU 加速的限界傳播和分支定界法已經(jīng)將這個驗證時間壓縮到了 10 秒左右。對神經(jīng)網(wǎng)絡驗證領域感興趣的讀者可以閱讀入門綜述文獻 [7,8]。

          團隊介紹

          從 CROWN [3] (2018 年) 到 LiRPA [4](2020 年)到α-CROWN [5] (2020 年) 再到β-CROWN [6](2021 年),該團隊一直走在神經(jīng)網(wǎng)絡驗證的前沿,并在此次重量級大賽中展現(xiàn)出了超一流的實力,拔得頭籌。該團隊的主要貢獻成員張歡、許凱第、王世褀均在神經(jīng)網(wǎng)絡安全性和魯棒性領域中均有突出建樹。

          6.png

          張歡博士于 2020 年畢業(yè)于 UCLA,現(xiàn)任卡內(nèi)基梅隆大學 (CMU) 博士后研究員。張歡是機器學習魯棒性和安全性領域的早期研究者之一,對于神經(jīng)網(wǎng)絡、決策樹等機器學習模型提出了開創(chuàng)性的驗證算法,并將這些算法應用于構(gòu)建更加安全和魯棒的圖像分類、自然語言處理 (NLP)、強化學習(RL) 等任務中,在 NeurIPS、ICML、ICLR 等一流會議中發(fā)表論文數(shù)十篇。

          7.png

          許凱第博士畢業(yè)于美國東北大學,于 2021 年 9 月加入德雷塞爾大學計算機學院擔任助理教授。其博士期間在 NeurIPS、ICML、ICLR、ICCV 等各大頂會發(fā)表十余篇一作 / 共同一作文章,對人工智能中的安全問題有著廣泛的研究,其中由他領導的 Adversarial T-shirt (ECCV 2020 Spotlight paper)曾被多家媒體報道。

          8.png

          王世褀就讀于哥倫比亞大學,即將在 2022 年獲得博士學位,是神經(jīng)網(wǎng)絡魯棒性、可驗證性和模型在安全領域應用的早期研究者之一。博士期間在 ICLR、NeurIPS、Usenix Security、CCS 等機器學習和安全頂會發(fā)表文章十余篇。

          神經(jīng)網(wǎng)絡驗證是一個年輕而重要的領域,其中仍然有很多有挑戰(zhàn)性的問題亟待解決,比如對包含更復雜的非線性函數(shù)的網(wǎng)絡(如 Transformer)的完備驗證,以及將驗證技術擴展到更多的領域中(例如網(wǎng)絡的公平性和正確性驗證)。此外,由于問題的難度(NP-Complete),目前還很難嚴格驗證 ImageNet 規(guī)模網(wǎng)絡的屬性。我們希望未來能有更多的研究人員加入這個領域,創(chuàng)建出更高效、更強大的驗證算法,為人工智能在各行各業(yè)的應用場景中提供嚴謹?shù)聂敯粜?、安全性和正確性保證。

          參考文獻:

          [1]VNN-COMP Presentation at CAV can be found at: https://sites.google.com/view/vnn2021

          [2] Stanley Bak, Changliu Liu, Taylor Johnson. The Second International Verification of Neural Networks Competition (VNN-COMP 2021): Summary and Results. https://arxiv.org/abs/2109.00498

          [3]Huan Zhang, Tsui-Wei Weng, Pin-Yu Chen, Cho-Jui Hsieh, and Luca Daniel. "Efficient neural network robustness certification with general activation functions." NeurIPS 2018. https://arxiv.org/pdf/1811.00866.pdf

          [4]Kaidi Xu, Zhouxing Shi, Huan Zhang, Yihan Wang, Kai-Wei Chang, Minlie Huang, Bhavya Kailkhura, Xue Lin, and Cho-Jui Hsieh. "Automatic perturbation analysis for scalable certified robustness and beyond." NeurIPS 2020. https://arxiv.org/pdf/2002.12920.pdf

          [5]Kaidi Xu, Huan Zhang, Shiqi Wang, Yihan Wang, Suman Jana, Xue Lin, and Cho-Jui Hsieh. "Fast and complete: Enabling complete neural network verification with rapid and massively parallel incomplete verifiers." ICLR 2020. https://arxiv.org/pdf/2011.13824.pdf

          [6]Shiqi Wang, Huan Zhang, Kaidi Xu, Xue Lin, Suman Jana, Cho-Jui Hsieh, and J. Zico Kolter. "Beta-CROWN: Efficient bound propagation with per-neuron split constraints for complete and incomplete neural network verification." https://arxiv.org/pdf/2103.06624.pdf

          [7]Changliu Liu, Tomer Arnon,  Christopher Lazarus, Christopher Strong, Clark Barrett, and Mykel J.  Kochenderfer. "Algorithms for verifying deep neural networks." https://arxiv.org/pdf/1903.06758.pdf

          [8]Hadi Salman, Greg Yang, Huan Zhang, Cho-Jui Hsieh, and Pengchuan Zhang. "A convex relaxation barrier to tight robustness verification of neural networks." NeurIPS 2019. https://arxiv.org/pdf/1902.08722.pdf

          *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



          關鍵詞: AI

          相關推薦

          技術專區(qū)

          關閉