MIT新機(jī)器人“成精了” 能通過(guò)視覺(jué)和觸覺(jué)識(shí)別事物
據(jù)外媒報(bào)道,對(duì)于人類(lèi)來(lái)說(shuō),很容易通過(guò)觀察某個(gè)物體來(lái)判斷其外觀,或者通過(guò)觸摸它來(lái)判斷它給人的感受,但是這對(duì)機(jī)器來(lái)說(shuō)是可能是個(gè)巨大的挑戰(zhàn)。現(xiàn)在,美國(guó)麻省理工學(xué)院(MIT)計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室(CSAIL)開(kāi)發(fā)的一種新機(jī)器人,正試圖獲得人類(lèi)的視覺(jué)和觸覺(jué)能力。
本文引用地址:http://cafeforensic.com/article/201906/401670.htmCSAIL團(tuán)隊(duì)使用KUKA機(jī)器人手臂,并添加了一種名為GelSight的觸覺(jué)傳感器,該傳感器是由CSAIL下屬泰德·阿德?tīng)柹?Ted Adelson)團(tuán)隊(duì)開(kāi)發(fā)。GelSight收集的信息會(huì)被傳輸給人工智能(AI),以便后者能夠理解視覺(jué)信息和觸覺(jué)信息之間的關(guān)系。
為了教授AI如何通過(guò)觸摸來(lái)識(shí)別物體,CSAIL團(tuán)隊(duì)錄制了12000個(gè)視頻,記錄了200個(gè)物體,如織物、工具以及被觸摸的家居物品。這些視頻被分解成靜態(tài)圖像,AI使用這個(gè)數(shù)據(jù)集來(lái)連接觸覺(jué)和視覺(jué)數(shù)據(jù)。
CSAIL博士生、關(guān)于該系統(tǒng)的新論文主要作者李云珠(音譯)表示:“通過(guò)觀察場(chǎng)景,我們的模型可以想象觸摸平面或鋒利邊緣的感覺(jué)。通過(guò)盲目的觸摸,我們的模型可以純粹通過(guò)觸覺(jué)來(lái)預(yù)測(cè)與環(huán)境的交互。將這兩種感覺(jué)結(jié)合起來(lái),可以增強(qiáng)機(jī)器人的能力,減少我們?cè)诓僮骱妥ト?duì)象時(shí)可能需要的數(shù)據(jù)?!?/p>
目前,機(jī)器人只能在受控環(huán)境中識(shí)別物體。下一步是建立更大的數(shù)據(jù)集,這樣機(jī)器人就可以在更不同的環(huán)境下工作。
加州大學(xué)伯克利分校博士后安德魯·歐文斯(Andrew Owens)表示:“這種方法可能對(duì)機(jī)器人非常有用,因?yàn)樗鼈冃枰卮疬@樣的問(wèn)題:‘這個(gè)物體是硬的還是軟的?’或者‘如果我用手把這個(gè)杯子舉起來(lái),我的抓力會(huì)有多好?’這些都是非常具有挑戰(zhàn)性的問(wèn)題,因?yàn)樾盘?hào)是如此的不同,而MIT的模型已經(jīng)顯示出很強(qiáng)的能力。”
評(píng)論