色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁 > 博客 > 原創(chuàng) | 圖注意力神經網絡(Graph Attention Networks)綜述(2)

          原創(chuàng) | 圖注意力神經網絡(Graph Attention Networks)綜述(2)

          發(fā)布人:數據派THU 時間:2023-07-19 來源:工程師 發(fā)布文章

          3GAT在組合優(yōu)化問題中的應用


          3.1組合優(yōu)化問題


          組合優(yōu)化問題是運籌學中的核心問題,也是學者開始學習運籌學的必經之路。組合優(yōu)化問題是計算機科學和運籌學中的核心領域,涉及到許多實際應用,如物流、調度和網絡設計等。組合優(yōu)化問題 在許多實際應用中都起著至關重要的作用。例如,在物流領域,組合優(yōu)化問題可以幫助人們在紛繁錯 雜的運輸條件中,找到最優(yōu)的貨物配送路線,從而節(jié)省運輸成本和提高貨運效率。在調度問題中,組合優(yōu)化可以幫助人們有效地分配資源,以滿足各種約束條件,同時最大化或最小化某個所需的某個目標值(通常稱為目標函數)。


          然而,傳統(tǒng)的組合優(yōu)化算法通常需要針對每個新問題從頭開始設計,并且需要專家對問題結構進行仔細的考慮。解決組合優(yōu)化問題通常需要大量的計算資源,特別是對于來源于現(xiàn)實的問題,通常情況下問題本身規(guī)模十分龐大,傳統(tǒng)的優(yōu)化算法可能無法在合理的時間內找到解決方案,甚至無法在可達的時間內求解。因此,如何有效地解決組合優(yōu)化問題,一直是研究者們關注的焦點。近年來,使用馬爾科夫鏈構造動態(tài)規(guī)劃的方式,可以解決被表述為由狀態(tài)、動作和獎勵定義的單人游戲的組合優(yōu)化問題,包括最小生成樹、最短路徑、旅行商問題(TSP)和車輛路徑問題(VRP),而無需專家知識。這種方法使用強化學習訓練圖注意力神經網絡(GNN),在未標記的圖訓練集上進行訓練。訓練后的網絡可以在線性運行時間內輸出新圖實例的近似解。在TSP問題中,GAT可以有效地處理城市之間的距離關系,從而找到最短的旅行路徑。在VRP問題中,GAT可以有效地處理車輛、客戶 和倉庫之間的關系,從而找到最優(yōu)的配送路線。這些研究結果表明,GAT在解決組合優(yōu)化問題方面,具 有巨大的潛力。


          3.2GAT解決路徑規(guī)劃論文案例


          (Kool et al.,2018)中提出了一種類似GAT的基于注意力機制的模型來解決不同的路徑規(guī)劃問題,包括TSP, VRP, OP等問題。本文主要是通過將路徑規(guī)劃問題(例如TSP)構造為基于圖的問題,在TSP中 的每個顧客點位的位置以及其它信息作節(jié)點的特征。經由基于注意力機制的編碼-****,得出路徑結果即一個隨機策略π(π|s), 使用此策略在給定的測試數據點中找到最有路徑方法π,此方法被θ參數化并且分解為:

          圖片       (10)


          解碼過程是順序進行的。在每個時間步,****根據編碼器的嵌入和在時間生成的輸出來輸出節(jié)點πt。在解碼過程中,增加一個特殊的上下文節(jié)點來表示解碼上下文。****在編碼器的頂部計算一個注意力(子)層,但是只向上下文節(jié)點發(fā)送消息以提高效率。最后的概率是使用單頭注意力機制計算的。在 時間t,****的上下文來自編碼器和在時間t之前的輸出。對于TSP來說包括圖的嵌入,前一個(最 后一個)節(jié)點πt-1和第一個節(jié)點π1。同時為了計算輸出概率,添加一個具有單個注意力頭的最終****層。文章通過梯度下降優(yōu)化損失L,使用REINFORCE梯度估計器和基線。文章使用Rollout基線,基線策略的更新是周期性的,也是較好的模型定義策略,用來確定性貪婪Rollout的解決方案。


          文章還詳細討論了對于不同問題的處理策略,例如對于獎勵收集旅行商問題(PCTSP),作者在編碼器中使用了單獨的參數來處理倉庫節(jié)點,并且提供了節(jié)點獎勵和懲罰作為輸入特征。在****的上下文中,作者使用了當前/最后的位置和剩余的獎勵來收集。在PCTSP中,如果剩余的獎勵大于0且所有節(jié)點都沒有被訪問過,那么倉庫節(jié)點不能被訪問。只有當節(jié)點已經被訪問過時,才會被屏蔽(即不 能被訪問)。


          由于篇幅限制,本文只著重介紹Kool et al. (2018)是如何基于圖注意力機制來構造在TSP中節(jié)點 間相互傳遞加權信息的算法。在文中構造的圖中,節(jié)點接收到的帶有權重的信息,來自于自己和周圍的鄰點們。而這些節(jié)點位的信息值是取決于其查詢與鄰居的鍵的兼容性,如Figure6所示。作者定義了dk, dv并設計計算了相應的ki∈ ?dk, vi∈ ?dv, qi∈ ?dk。對于所有點位的對應qi ,ki,v i,通過以下方法 投影嵌入到hi來計算:


          圖片


          其中的WQ,WK是兩組維數是dk ×dh的參數矩陣,WV的大小是(dv × dh). (推薦想深入了解Transformer中q, k, v設置與計算方法的讀者,移步至WMathor (2020))

          兩點之間的兼容性,就是通過計算節(jié)點i的qi同j點的kj之間的值uij來實現(xiàn)的 (Velickovic et al.,2017):


          圖片(11)


          設置-∞避免了不相接的點互相傳遞信息,通過構建的兼容性,類似于Velickovic et al.(2017)中的eij, Khalil et al.(2017) 是這樣計算注意力權重aij的:


          圖片       (12)


          最終,節(jié)點i將接收到一個向量h’i,其中包含了向量vj的凸組合:


          圖片       (13)

                   

          圖片


          4結語


          4.1GAT的未來發(fā)展和應用前景


          圖注意力網絡(GAT)在解決組合優(yōu)化問題,特別是旅行商問題(TSP)和車輛路徑問題(VRP)等問題上的能力已經得到了廣泛的證明。然而也需要注意到,雖然GAT在這些問題上表現(xiàn)出了優(yōu)越性,但是它并不是萬能的。對于一些特定的問題,可能需要設計特定的模型或者算法來解決。因此,在研究問題時,需要根據問題的具體情況,結合GAT解決問題的特性,選擇合適的工具來解決不同的組合 優(yōu)化問題。


          在其它領域GAT也發(fā)揮著不同的作用,例如,Zhang et al. (2022)中提出了一種新的GAT架構,該架構可以捕獲不同規(guī)模圖知識之間的潛在關聯(lián)。這種新的GAT架構在預測準確性和訓練速度上都優(yōu)于 傳統(tǒng)的GAT模型。


          此外,Shao et al.(2022)提出了一種新的動態(tài)多圖注意力模型,該模型可以處理長期的時空預測問題。這種模型通過構建新的圖模型來表示每個節(jié)點的上下文信息,并利用長期的時空數據依賴結構。這種方法在兩個大規(guī)模數據集上的實驗表明,它可以顯著提高現(xiàn)有圖神經網絡模型在長期時空預測任務上的性能。


          在股票市場預測方面,GAT也有著廣泛的應用。Zhao et al. (2022)提出了一種基于雙注意力網絡的股票移動預測方法。首先構建了一個包含兩種類型的實體(包括上市公司和相關的高管)和混合關系(包括顯式關系和隱式關系)的市場知識圖。然后,提出了一種雙注意力網絡,通過這個網絡可以 學習到市場知識圖中的動量溢出信號,從而進行股票預測。實驗結果表明,該方法在股票預測方面的性能優(yōu)于九種最先進的基線方法。


          總的來說,圖形的視角為研究提供了一種全新的方式來理解和解決問題。將已有的問題以圖形的形式思考和轉換,不僅可以揭示問題的新的方面和特性,而且還可能引發(fā)新的創(chuàng)新點。同樣,將新的問題用圖形方法思考,也可能帶來意想不到的收獲。這種方法的優(yōu)點在于,它可以幫助學者更好地理解問題的結構和復雜性,從而找到更有效的解決方案。希望大家從本篇對于GAT的介紹開始,可以更多了解圖神經網絡的原理,更多地應用到自己的學 習和研究當中,通過使用GAT可以為解決問題提供強有力的支持。


          作者簡介


          作者鄧楊,西安交通大學管理學院-香港城市大學系統(tǒng)工程學院聯(lián)合培養(yǎng)博三學生,研究方向為強化學習在城市物流中的應用。碩士畢業(yè)于南加州大學交通工程專業(yè),榮譽畢業(yè)生。曾就職于工程咨詢 企業(yè)HATCH洛杉磯辦公室,加州注冊EIT。曾獲AACYF 2017年‘三十位三十歲以下優(yōu)秀創(chuàng)業(yè)青年’、2019年‘全美十大華裔杰出青年’等稱號?,F(xiàn)為包頭市海聯(lián)會副會長、僑聯(lián)、歐美同學會會員。


          References
          1.DGL Team. 9 Graph Attention Network (GAT) Deep Graph Library (DGL). https: //docs .dgl.ai/ en/0.8.x/tutorials/models/1_gnn/9_gat.html (2023).2.Graph Attention Networks LabML. https://nn.labml.ai/graphs/gat/index.html (2023).3.Graph Attention Networks Experiment LabML. https://nn.labml.ai/graphs/gat/experiment. html (2023).4.Khalil, E., Dai, H., Zhang, Y., Dilkina, B. & Song, L. Learning combinatorial optimization algorithms over graphs. Advances in neural information processing systems 30 (2017).5.Kool, W., Van Hoof, H. & Welling, M. Attention, learn to solve routing problems! arXiv preprint arXiv:1803.08475 (2018).6.LabML Team. Graph Neural Networks LabML. https://nn.labml.ai/graphs/index.html (2023).7.LaBonne, M. Graph Attention Networks: Theoretical and Practical Insights https : / / mlabonne . github.io/blog/posts/2022-03-09-graph_attention_network.html (2023).8.Shao, W., Jin, Z., Wang, S., Kang, Y., Xiao, X., Menouar, H., Zhang, Z., Zhang, J. & Salim, F. Long-term Spatio-Temporal Forecasting via Dynamic Multiple-Graph Attention. arXiv preprint arXiv:2204.11008 (2022).9.Velickovic, P., Cucurull, G., Casanova, A., Romero, A., Lio, P., Bengio, Y., et al. Graph attention networks. stat 1050, 10–48550 (2017).10.WMathor. Graph Attention Networks https://wmathor.com/index.php/archives/1438/ (2023).11.Zhang, W., Yin, Z., Sheng, Z., Li, Y., Ouyang, W., Li, X., Tao, Y., Yang, Z. & Cui, B. Graph attention multilayer perceptron in Proceedings of the 28th ACM SIGKDD Conference on Knowledge Discovery and Data Mining (2022), 4560–4570.12.Zhao, Y., Du, H., Liu, Y., Wei, S., Chen, X., Zhuang, F., Li, Q. & Kou, G. Stock Movement Prediction Based on Bi-Typed Hybrid-Relational Market Knowledge Graph Via Dual Attention Networks. IEEE Transactions on Knowledge and Data Engineering (2022).REFERENCES

          *博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



          關鍵詞: AI

          相關推薦

          技術專區(qū)

          關閉