IBM新概念芯片可將AI訓練速度提高30000倍
IBM的幾位研究人員近日公布了一份論文,論文闡述了一種所謂的電阻式處理單元(ResistiveProcessingUnit,RPU)的新型芯片概念,據稱與傳統(tǒng)CPU相比,這種芯片可以將深度神經網絡的訓練速度提高至原來的30000倍。
本文引用地址:http://cafeforensic.com/article/201603/289079.htm深度神經網絡(DNN)是一種有多隱層的人工神經網絡,這種神經網絡即可進行有監(jiān)督訓練,也可進行無監(jiān)督訓練,結果出來的就是能夠自行“學習”的機器學習(或者叫人工智能),也即所謂的深度學習。
前不久Google(Alphabet)DeepMind在人機大戰(zhàn)中擊敗李世石的AI圍棋程序AlphaGo就采用了類似算法。AlphaGo由一個搜索樹算法和兩個有數(shù)百萬類神經元連接的多層深度神經網絡組成。其中一個網絡叫做“策略網絡”,用于計算走哪一步的勝率最高,另一個網絡叫做“價值網絡”,用于告訴AlphaGo怎么移動對白子和黑子都更好,這樣就可以降低可能性的深度。
由于前景看好,許多機器學習研究人員都已經把焦點集中到深度神經網絡上面。但是,為了達到一定程度的智能,這些網絡需要非常多的計算芯片,比如AlphaGo使用的計算芯片數(shù)量就達到了幾千個。所以這是一項很耗計算資源、同時也很燒錢的任務。不過現(xiàn)在IBM的研究人員提出了一種新的芯片概念,其強大的計算能力可以一個就頂傳統(tǒng)芯片的幾千,而如果將成千上萬個這種芯片組合起來的話,未來AI的能力也許就會出現(xiàn)更多的突破。
這種名為RPU的芯片主要利用了深度學習等算法的兩個特點:本地性以及并行性。為此ROU借助了下一代非易失性內存(NVM)技術的概念,把算法用到的權重值存儲在本地,從而把訓練過程中的數(shù)據移動最小化。研究人員稱,如果把這種RPU大規(guī)模應用到有10億多個權重的深度神經網絡,則訓練速度最高可以加速30000倍,也就是說平時需要幾千臺機器訓練幾天才能出的結果用這種芯片幾個小時就可以搞定,而且能效還要低得多。
當然,論文只是提出了一種概念,這種芯片目前還處在研究階段,同時鑒于普通非易失性內存尚未進入主流市場,所以這樣的芯片上市估計還需要幾年的時間。不過如果這種芯片的確有那么大的計算和能效優(yōu)勢的話,相信Google、Facebook等從事AI研究和應用的巨頭一定會關注的,而IBM本身也是AI、大數(shù)據的積極參與者之一,東西要是做出來市場是應該不用發(fā)愁的。
評論