Google AI能自行發(fā)展加密技術(shù) 防止第三方窺探
Google近年積極開發(fā)自有人工智能(AI)技術(shù),最新研究報(bào)告稱該公司打造的實(shí)驗(yàn)AI系統(tǒng)已具備可自行設(shè)計(jì)加密演算法的能力,借此能夠達(dá)到保密目的,避免第三方窺探內(nèi)容。
本文引用地址:http://cafeforensic.com/article/201611/339654.htm這項(xiàng)研究成果稱為“用對(duì)抗神經(jīng)密碼技術(shù)學(xué)習(xí)安全通訊”,Google旗下Google Brain研究團(tuán)隊(duì)人員Martin Abadi及David Andersen在報(bào)告中,介紹神經(jīng)網(wǎng)路如何自行發(fā)展簡(jiǎn)單加密技術(shù)以防止第三方窺探的技術(shù),且過程中無(wú)需外部輸入特定加密演算法即可進(jìn)行。
這套實(shí)驗(yàn)Google Brain設(shè)計(jì)了“Bob”、“Alice”及“Eve”三個(gè)神經(jīng)網(wǎng)路,由Alice及Bob之間彼此收發(fā)訊息,訓(xùn)練Alice將一串16位元由0與1組成的訊息傳送給Bob,Bob則必須嘗試對(duì)發(fā)送的訊息解密,但不讓Eve獲得這組訊息內(nèi)容,要由Eve試圖窺探并解碼該訊息。Alice與Bob之間則擁有一個(gè)共享金鑰,即所謂的對(duì)稱加密。
研究人員只給定上述假設(shè)實(shí)驗(yàn)情況,未指定Alice與Bob之間要以何種方法傳送訊息,所以上述所有AI都不知道如何進(jìn)行加密也不清楚應(yīng)使用何種加密技術(shù),僅透過可衡量損失及錯(cuò)誤程度的損失函數(shù)來(lái)判斷自身表現(xiàn),并不斷演進(jìn)出正確的方法。
Alice、Bob及Eve都是采用相同的混合與轉(zhuǎn)換神經(jīng)網(wǎng)路,初始化皆是獨(dú)立進(jìn)行,Google研究人員在單顆繪圖芯片(GPU)系統(tǒng)中以TensorFlow反覆進(jìn)行這項(xiàng)實(shí)驗(yàn),由Alice不斷發(fā)送訊息給Bob接收及解讀,同時(shí)Eve也嘗試進(jìn)行解讀。
起初Bob及Eve的錯(cuò)誤率都很高,但隨著測(cè)試次數(shù)增加,兩者的錯(cuò)誤率都逐漸下降,約進(jìn)行到5,000~1萬(wàn)步(step)之間的測(cè)試次數(shù)后,Eve的錯(cuò)誤率開始減少,Bob更是大幅下降,不過1萬(wàn)步后當(dāng)Alice與Bob改變加密方法后,Eve的錯(cuò)誤率又開始攀升。
到了1.5萬(wàn)步后Bob的錯(cuò)誤率已降至幾近0,Eve的錯(cuò)誤率則仍有一定程度,由此顯示Eve只是在進(jìn)行隨機(jī)猜測(cè),Alice與Bob之間則已改善及發(fā)展出彼此能夠秘密通訊、防止Eve偷窺的方式。
Google研究人員未詳細(xì)分析Alice與Bob之間設(shè)計(jì)的是何種加密演算法,最后僅得出結(jié)論指出,神經(jīng)網(wǎng)路確實(shí)能夠進(jìn)行通訊內(nèi)容傳輸?shù)淖晕曳雷o(hù),且只需與Alice說明保密的重要性高于一切即可,無(wú)需事先告知要以何種加密演算法進(jìn)行保密。另一方面從Eve的實(shí)驗(yàn)結(jié)果看來(lái),Google研究人員則認(rèn)為神經(jīng)網(wǎng)路成為密碼分析專家的機(jī)率不高。未來(lái)Google還將針對(duì)其他加密演算法進(jìn)行實(shí)驗(yàn)。
評(píng)論