深度學(xué)習(xí)算法有望在FPGA和超級計算機上運行
隨著人工智能技術(shù)的發(fā)展,各大科技公司都加大在深度學(xué)習(xí)上的投入,而作為美國國家科學(xué)基金會也同樣如此,當(dāng)下,它通過資助美國幾所大學(xué)的研究人員,促進深度學(xué)習(xí)算法在FPGA和超級計算機上運行。雖然目前看到的還只是代表了深度學(xué)習(xí)的一個趨勢,但是隨著各大科技公司的商業(yè)運營以及更多的深度學(xué)習(xí)走進大學(xué)研究中心以及國家實驗室,對深度學(xué)習(xí)的發(fā)展起到積極的促進作用。
本文引用地址:http://cafeforensic.com/article/201710/365706.htm以下為原文:
機器學(xué)習(xí)在過去的幾年里取得了很大的進步,在很大程度上歸功于計算密集型工作負載擴展新技術(shù)的發(fā)展。NSF最新的資助項目似乎暗示我們看到的可能只是冰山一角,因為研究人員試圖將類似深度學(xué)習(xí)的技術(shù)擴展到更多的計算機和新型的處理器上。
由紐約州立大學(xué)石溪分校團隊實施的一個特別有趣項目,該項目旨在證明FPGA(現(xiàn)場可編程門陣列)優(yōu)于GPU,他們發(fā)現(xiàn)深度學(xué)習(xí)算法在FPGA上能夠更快、更有效地運行,這突破了當(dāng)前傳統(tǒng)的認識。
根據(jù)項目概要:
研究人員預(yù)計在GPU上算法的最慢部分,運行在FPGA上將實現(xiàn)明顯的加速,同時,在GPU上算法最快的部分在FPGA上將有類似的運行性能,但是功耗會極低。
實際上,除了不同于GPU,在硬件上運行這些模型想法并不新奇,例如,IBM最近憑借一個新的brain-inspired芯片轟動一時,它聲稱可以完美支持神經(jīng)網(wǎng)絡(luò)和其他cogniTIve-inspired工作負載。微軟在今年7月演示了它的Adam項目,這個項目是重新修改了一個流行的深度學(xué)習(xí)技術(shù)使其在通用英特爾 CPU處理器上運行。
由于其可定制的特點,F(xiàn)PGA有著獨特的優(yōu)勢,今年6月,微軟解釋它如何通過卸載某些進程部分到FPGA來加快Bing搜索。當(dāng)月晚些時候,在Gigaom的Structure大會上,英特爾宣布即將推出的混合芯片架構(gòu)將FPGA在CPU共置在一起(實際上它們會共享內(nèi)存),這主要針對專業(yè)大數(shù)據(jù)負載與微軟必應(yīng)這樣的案例。
然而,F(xiàn)PGA對于深度學(xué)習(xí)模型來說并不是唯一的、潛在的基礎(chǔ)架構(gòu)選擇。NSF還資助紐約大學(xué)的研究人員,讓他們通過基于以太網(wǎng)遠程直接內(nèi)存訪問技術(shù)來測試深度學(xué)習(xí)算法以及其他工作負載,這在超級計算機上廣泛使用,但現(xiàn)在要將它帶到企業(yè)系統(tǒng),RDMA連接器通過直接發(fā)送消息到內(nèi)存,避免了CPU、交換機和其他組件給進程帶來的延遲,從而加快計算機之間傳輸數(shù)據(jù)速度。
說到超級計算機,另一個新的NSF資助項目,由機器學(xué)習(xí)專家斯坦福大學(xué)(百度和Coursera)的Andrew Ng和超級計算機專家田納西大學(xué)的Jack Dongarra以及印第安納大學(xué)的Geoffrey Fox領(lǐng)導(dǎo),旨在使深度學(xué)習(xí)模型利用Python可編程,并且將它帶到超級計算機和擴展云系統(tǒng)。據(jù)悉,這個得到了NSF將近100萬美元的資助的項目被稱為Rapid Python Deep Learning Infrastructure。
RaPyDLI將被構(gòu)建成一套開源的模塊,可以從Python用戶界面訪問,但是可以放心地在最大規(guī)模超級計算機或云的C / C++或Java環(huán)境中通過互動分析和可視化執(zhí)行。RaPyDLI將支持GPU加速器和英特爾Phi協(xié)處理器以及廣泛的存儲技術(shù)包括Files、NoSQL、HDFS和數(shù)據(jù)庫。
目前做的所有工作都是讓深入學(xué)習(xí)算法更容易并且改善它們的性能,這三個項目只是一小部分,但是如果這些技術(shù)能夠被科技巨頭用到商業(yè)領(lǐng)域,或者進入研究中心以及國家實驗室利用計算機解決真正的復(fù)雜問題將是非常有益的。
評論