色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          新聞中心

          EEPW首頁 > 消費電子 > 設(shè)計應(yīng)用 > 深度學(xué)習(xí)基礎(chǔ)概念筆記

          深度學(xué)習(xí)基礎(chǔ)概念筆記

          作者: 時間:2018-07-25 來源:網(wǎng)絡(luò) 收藏

          學(xué)習(xí) tensorflow,caffe 等深度學(xué)習(xí)框架前,需要先了解一些基礎(chǔ)概念。本文以筆記的形式記錄了一個零基礎(chǔ)的小白需要先了解的一些基礎(chǔ)概念。

          本文引用地址:http://cafeforensic.com/article/201807/383751.htm

          人工智能,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系

          人工智能(Artificial Intelligence)——為機(jī)器賦予人的智能

          強(qiáng)人工智能(General AI):無所不能的機(jī)器,它有著我們所有的感知(甚至比人更多),我們所有的理性,可以像我們一樣思考

          弱人工智能(Narrow AI):弱人工智能是能夠與人一樣,甚至比人更好地執(zhí)行特定任務(wù)的技術(shù)。例如,Pinterest 上的圖像分類;或者 Facebook 的人臉識別。

          強(qiáng)人工智能是愿景,弱人工智能是目前能實現(xiàn)的。

          機(jī)器學(xué)習(xí)—— 一種實現(xiàn)人工智能的方法

          機(jī)器學(xué)習(xí)最基本的做法,是使用算法來解析數(shù)據(jù)、從中學(xué)習(xí),然后對真實世界中的事件做出決策和預(yù)測。

          深度學(xué)習(xí)——一種實現(xiàn)機(jī)器學(xué)習(xí)的技術(shù)

          機(jī)器學(xué)習(xí)可以通過神經(jīng)網(wǎng)絡(luò)來實現(xiàn)??梢詫⑸疃葘W(xué)習(xí)簡單理解為,就是使用深度架構(gòu)(比如深度神經(jīng)網(wǎng)絡(luò))的機(jī)器學(xué)習(xí)方法。目前深度架構(gòu)大部分時候就是指深度神經(jīng)網(wǎng)絡(luò)。

          神經(jīng)網(wǎng)絡(luò)組成

          一個神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元組成,每個圓圈是一個神經(jīng)元,每條線表示神經(jīng)元之間的連接。x 表示的輸入數(shù)據(jù),y 表示的是輸出數(shù)據(jù),w 表示每層連接的權(quán)重。w 也就是我們構(gòu)造完神經(jīng)網(wǎng)絡(luò)之后需要確定的。

          最左邊的叫做輸入層,這層負(fù)責(zé)接受輸入數(shù)據(jù)。

          最右邊的叫做輸出層,我們可以從這層獲取神經(jīng)網(wǎng)絡(luò)輸出數(shù)據(jù)

          輸入層和輸出層之間叫做隱藏層。隱藏層層數(shù)不定,簡單的神經(jīng)網(wǎng)絡(luò)可能是 2-3 層,復(fù)雜的也可能成百上千層,隱藏層較多的就叫做深度神經(jīng)網(wǎng)絡(luò)。

          深層網(wǎng)絡(luò)比淺層網(wǎng)絡(luò)的表達(dá)能力更強(qiáng),能夠處理更多的數(shù)據(jù)。但是深度網(wǎng)絡(luò)的訓(xùn)練更加復(fù)雜。需要大量的數(shù)據(jù),很多的技巧才能訓(xùn)練好一個深層網(wǎng)絡(luò)。

          問題:假設(shè)計算速度足夠快,是不是深度網(wǎng)絡(luò)越深越好?

          不是。深度網(wǎng)絡(luò)越深,對架構(gòu)和算法的要求就越高。在超過架構(gòu)和算法的瓶頸后,再增加深度也是徒勞。

          神經(jīng)元()

          神經(jīng)網(wǎng)絡(luò)由一個個的神經(jīng)元構(gòu)成,而一個神經(jīng)元也由三部分組成。

          輸入權(quán)值 每個輸入會對應(yīng)一個權(quán)值 w,同時還會有一個偏置值 b。也就是圖中的 w0。訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程,其實就是確定權(quán)值 w 的過程。

          激活函數(shù) 經(jīng)過權(quán)值運算之后還會經(jīng)歷激活函數(shù)再輸出。比如我們可以用階躍函數(shù) f 來表示激活函數(shù)。

          輸出 最終的輸出,的輸出可以用這個公式來表示

          神經(jīng)元可以擬合任意的線性函數(shù),如最簡單擬合 and 函數(shù)。

          and 函數(shù)真值表如上圖所示。取 w1 = 0.5;w2 = 0.5 b = -0.8。激活函數(shù)取上面示例的階躍函數(shù) f 表示??梢则炞C此時神經(jīng)元能表示 and 函數(shù)。

          如輸入第一行,x1 = 0,x2 = 0 時,可以得到

          y 為 0,這就是真值表的第一行。

          在數(shù)學(xué)意義上,可以這樣理解 and 函數(shù)的神經(jīng)元。它表示了一個線性分類問題,它就像是一條直線把分類 0(false,紅叉)和分類 1(true,綠點)分開

          而實際上,神經(jīng)元在數(shù)學(xué)上可以理解為一個數(shù)據(jù)分割問題。神經(jīng)元是將神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換成數(shù)學(xué)問題的關(guān)鍵。比如需要訓(xùn)練神經(jīng)網(wǎng)絡(luò)做一個分類器,那么在數(shù)學(xué)上可以將輸入的參數(shù)(x1,x2...,xn)理解為 m 維坐標(biāo)系(設(shè) x 是 m 元向量)上的 n 個點,而每個神經(jīng)元則可以理解為一個個擬合函數(shù)。取 m 為 2,放在最簡單的二維坐標(biāo)系里面進(jìn)行理解。

          此時輸入?yún)?shù)對應(yīng)的是下圖中的黑點,每個神經(jīng)元就是黑線(由于激勵函數(shù)的存在,不一定像下圖一樣是線性的,它可以是任意的形狀)。神經(jīng)網(wǎng)絡(luò)由一個個神經(jīng)元組成,這些神經(jīng)元表示的擬合函數(shù)相互交錯就形成了各種各樣的區(qū)域。在下圖中可以直觀的看到,此時分類問題就是一個數(shù)學(xué)的問題,輸入?yún)?shù)落在 A 區(qū)域,那么就認(rèn)為他是分類 1,落在 B 區(qū)域,則認(rèn)為他是分類 2。依次類推,我們便建立了神經(jīng)網(wǎng)絡(luò)分類器在數(shù)學(xué)上的表現(xiàn)含義。

          激活函數(shù)

          事實上,一個神經(jīng)元不能擬合異或運算。在下圖中可以直觀的看到,你無法直接用一條直線將分類 0 和分類 1 分隔開。

          此時可以借助激活函數(shù)來做分割。激活函數(shù)選擇閥值函數(shù),也就是當(dāng)輸入大于某個值時輸出 1(激活),小于等于那個值則輸出 0(沒有激活)。

          擬合異或函數(shù)的神經(jīng)網(wǎng)絡(luò)如圖所示:

          圖中神經(jīng)網(wǎng)絡(luò)分成三層。在第二層中,如果輸入大于 1.5 則輸出 1,否則 0;第三層,如果輸入大于 0.5,則輸出 1,否則 0.

          第一層到第二層(閥值 1.5):

          第二層到第三層(閥值 0.5):

          可以看到最終結(jié)果與異或結(jié)果吻合。

          其實,這里放在數(shù)學(xué)上理解體現(xiàn)的是一個升維思想。放在二維坐標(biāo)中無法分割的點,可以放在三維坐標(biāo)中分割。上面的神經(jīng)網(wǎng)絡(luò)可以理解為只有最后一層,三個參數(shù)的神經(jīng)元。激活函數(shù)是用來構(gòu)造第三個參數(shù)的方式。這樣等同于將三個點放在三維坐標(biāo)系中做數(shù)據(jù)分割。相當(dāng)于在二維中無法解決中的問題升維到三維中解決。

          深度學(xué)習(xí)過程

          構(gòu)造神經(jīng)網(wǎng)絡(luò)

          確定學(xué)習(xí)目標(biāo)

          學(xué)習(xí)

          如何進(jìn)行深度學(xué)習(xí),過程基本都可以分為這三步來做。用一個簡單的例子來說明。如圖,假設(shè)我們需要通過深度學(xué)習(xí)來識別手寫圖片對應(yīng)的數(shù)字。

          1.構(gòu)造神經(jīng)網(wǎng)絡(luò)。這里可以采用最簡單的全連接神經(jīng)網(wǎng)絡(luò),也可以采用卷積神經(jīng)網(wǎng)絡(luò)。同時確定神經(jīng)元的激勵函數(shù),神經(jīng)網(wǎng)絡(luò)的層數(shù)等?;A(chǔ)概念篇不做過多介紹

          2.確定學(xué)習(xí)目標(biāo)。這里簡單假設(shè)我們所有輸入的都是手寫的數(shù)字圖片。那么這里就有 10 個輸出,分別對應(yīng) 0~9 的數(shù)字的比例。我們用 [y0,y1,...y9]表示,每個 y 值代表這張圖可能對應(yīng)該數(shù)字的概率(y0 表示這張圖是數(shù)字 0 的概率)。對于上圖中第一個輸入圖片,在訓(xùn)練過程中,我們知道第一張圖片輸出應(yīng)該是數(shù)字 5。于是我們期望輸出是 [0,0,0,0,0,1,0,0,0,0]。但是實際上,我們的模型不是完美的,肯定會有誤差,我們得到的結(jié)果可能是 [0,0,0.1,0,0,0.88,0,0,0,0.02]。那么就會有個訓(xùn)練得到的結(jié)果和期望結(jié)果的誤差。

          這時候我們的學(xué)習(xí)目標(biāo)也就是希望這個誤差能夠最小。誤差用 L 來表示,學(xué)習(xí)目標(biāo)就是找到權(quán)值 w,使得 L 最小。當(dāng)然,這里涉及到我們需要用一個公式來表達(dá)這個誤差 L,這個公式選取也很有學(xué)問,不同的公式最終在學(xué)習(xí)過程時收斂速度是不一樣的,通過訓(xùn)練模型得到的權(quán)值 w 也是不一樣的。這里先不多介紹。

          3.學(xué)習(xí)。假設(shè)我們神經(jīng)模型確定下來的權(quán)值 w 與 L 的關(guān)系如圖所示(這里我們考慮最簡單的二維坐標(biāo)下的情況,原理是相通的,推廣到多元坐標(biāo)也是適用的)。由于數(shù)學(xué)模型的復(fù)雜,這里找最小值 L 的過程其實是找局部最小值的過程。


          上一頁 1 2 下一頁

          關(guān)鍵詞: 感知器

          評論


          技術(shù)專區(qū)

          關(guān)閉