色婷婷AⅤ一区二区三区|亚洲精品第一国产综合亚AV|久久精品官方网视频|日本28视频香蕉

          "); //-->

          博客專欄

          EEPW首頁 > 博客 > 基于邊界點優(yōu)化和多步路徑規(guī)劃的機器人自主探索(2)

          基于邊界點優(yōu)化和多步路徑規(guī)劃的機器人自主探索(2)

          發(fā)布人:計算機視覺工坊 時間:2023-06-23 來源:工程師 發(fā)布文章
          4 實驗與結果4.1 實驗設置

          通過仿真地圖和真實地圖對所提出策略的性能進行了實驗驗證,并與其他策略進行了比較。所有用于比較的策略都是在運行Ubuntu 14.04的Intel core i7 3.60GHz處理器和8GB RAM的計算機上使用ROS庫在c++中開發(fā)為ROS組件。

          文章實驗參數(shù)表如下:

          圖片

          對于仿真環(huán)境,我們使用Gazebo模擬器構建一個封閉空間,如下圖4(a)所示??紤]到地圖尺寸變化的影響,使用了不同的地圖尺寸(2020m, 4040m, 6060m)。機器人的半徑為0.2m,激光傳感器的范圍設置為10m。圖4(c)為在2020m的模擬環(huán)境中建立的二維占用網(wǎng)格圖。

          在真實環(huán)境中,作者利用擋板構建了一個10m * 10m的空間,如下圖4(b)所示。實驗中使用的移動機器人平臺為EAIBOT Dashgo-D1。它配備了一個Hokuyo UST-10LX 2D激光傳感器(10米的檢測范圍和270°視野)。圖4(d)為在真實環(huán)境中構建的二維占用網(wǎng)格圖。

          圖片

          4.2 邊界點優(yōu)化結果

          如下圖5(a)所示。由于RRT算法的隨機性,邊界點的位置都是隨機的。可以看出,有的邊界有很多邊界點,有的邊界只有很少的邊界點。此外,在地圖的各個邊界上,邊界點的分布也不均勻。圖5(b)是用文中提出的算法生成的邊界點。優(yōu)化后邊界點數(shù)量大大減少,各邊界上的邊界點分布基本均勻。黃色點是根據(jù)定義的邊界點評價函數(shù)計算出的當前情況下的最優(yōu)邊界點。

          圖片

          4.3 多步探索策略的結果

          如圖6(a)和圖6(b)所示,在傳統(tǒng)的全局路徑規(guī)劃策略下,機器人直接規(guī)劃從當前位置到目標邊界點的路徑,并搜索下一個目標邊界點,直到到達前一個目標邊界點。

          在多步路徑規(guī)劃策略中,每當機器人的運動距離達到確定的局部探索路徑步長時,都會重新計算并重新選擇最優(yōu)邊界點。從下面的圖6(c)可以看出,在機器人到達圖6(a)中的目標邊界點之前,當前的最優(yōu)邊界點已經(jīng)發(fā)生了變化。因此,機器人已經(jīng)規(guī)劃了一條新的路徑。結果是圖6(c)的路徑長度明顯短于圖6(a)和圖6(b)。

          圖片

          4.4 與其他策略的比較

          文中總共進行了200組實驗,將提出的策略與其他四種策略進行比較。策略1的思想是隨機選擇邊界點進行探索,稱之為RANDOM。策略2的思想是選擇離機器人最近的邊界點,用NEAREST來表示它。策略3采用了貪婪算法的思想,因此將其記為GREEDY。策略4是用UMARI來描述。本文中提出的策略稱為RFPO。為了比較不同地圖尺寸對探索策略的影響,作者使用了4張不同尺寸的地圖進行實驗(一張真實地圖和3張不同尺寸的模擬地圖)。每張地圖都要進行50組探索作業(yè)。這50次探索分為5組,每組代表一種探索策略。在40*40 m的模擬地圖中,對于每種策略,從10次探索運行中選擇一個實驗結果來顯示機器人的探索軌跡。結果如圖7所示。

          圖片

          圖8為四種不同地圖中不同探索策略探索結束時的探索時間,圖9為四種不同地圖中不同探索策略探索結束時的探索距離。

          圖片

          分析:從圖中可以看出,地圖的尺寸越大,不同策略之間探索效率的差異就越明顯。在60*60m的模擬地圖上,文中提出的策略與其他四種策略相比,平均探索時間分別減少了26.71%、7.36%、5.56%、1.62%,平均探索距離分別減少了31.22%、15.56%、14.61%、8.43%。

          • 對于RANDOM策略來說,由于每次的目標邊界點都是隨機選擇的,機器人會走很多重復的路線,所以探測時間和探測距離都會增加。
          • 而NEAREST策略和GREEDY策略會導致搜索變成局部最優(yōu)問題,影響搜索的效率。
          • UMARI的策略直接規(guī)劃了機器人從當前位置到探測目標點的路徑,這可能會導致圖6中的問題。

          實驗結果表明,無論是與探測時間相比,還是與探測距離相比,文中提出的探測策略的效果都優(yōu)于其他策略,證明了所提出策略的有效性。

          5 總結

          本文提出了一種基于邊界點優(yōu)化和多步路徑規(guī)劃的機器人自主探索策略。該策略可以驅(qū)動機器人探索未知環(huán)境,并在無需人工干預的情況下高效地構建相應的二維占用柵格地圖。在這個探索策略中,作者使用RRT算法來生成邊界點,并提出RFPO算法來優(yōu)化這些邊界點。然后定義了邊界點評價函數(shù),選取當前最優(yōu)邊界點進行探索。在路徑規(guī)劃部分,設置了一個局部探索路徑步長,當機器人的運動距離達到局部探索路徑步長時,重新選擇目標邊界點進行探索,以減少機器人走一些重復路徑的可能性。最后通過實驗,驗證了所提策略的有效性。

          未來改進:目前只使用里程計數(shù)據(jù)結合激光傳感器數(shù)據(jù)來構建二維占用網(wǎng)格地圖,地圖中包含的信息相對較少。

          • 可以將視覺傳感器數(shù)據(jù)融合到自主探索中,視覺傳感器數(shù)據(jù)的優(yōu)點是可以獲得更多的環(huán)境信息,這些數(shù)據(jù)可以被融合在一起,為以后的導航任務和其他相關工作構建具有更豐富信息的地圖。
          • 此外,可以嘗試協(xié)調(diào)多個機器人進行高效探索。


          *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



          關鍵詞: AI

          相關推薦

          技術專區(qū)

          關閉