CMU研制新一代智能工業(yè)機器人,通過(guò)觸摸來(lái)認識這個(gè)世界
CMU的計算機團隊通過(guò)讓其機器人通過(guò)觸覺(jué)反饋和試錯來(lái)學(xué)習,力求打造觸覺(jué)、視覺(jué)結合處理和自主學(xué)習的新一代智能工業(yè)機器人。
我們都知道,在人工智能領(lǐng)域,要想實(shí)現對目標的識別、跟蹤和測量,其中一項非常核心的技術(shù)就是計算機視覺(jué)。目前,國內外有許多家公司和實(shí)驗室就在結合深度學(xué)習和計算機視覺(jué)來(lái)進(jìn)行深度研究與改進(jìn),提高機器動(dòng)作的精度和強度。但是也正如行業(yè)內大家所熟知的,無(wú)法結合機器的觸覺(jué)是機器人發(fā)展的一大制約。
據悉,近日卡內基梅隆大學(xué)(CMU)的計算機團隊正在訓練Baxter機器人進(jìn)行抓握訓練,讓其通過(guò)觸覺(jué)反饋和試錯來(lái)學(xué)習,研究出觸覺(jué)和視覺(jué)相結合的新一代智能工業(yè)機器人。
該系統使用類(lèi)似于Kinect的3D攝像機。 Baxter收集的視覺(jué)和觸覺(jué)信息被發(fā)送到一個(gè)深層神經(jīng)網(wǎng)絡(luò ),它與ImageNet中的圖像數據交叉輸入。加上觸摸過(guò)程的數據訓練,機器人的識別精度比僅使用圖像數據訓練的機器人提高了10%。
實(shí)驗室助理Dhiraj Gandhi為大家演示了機器人在接觸熟悉與不熟悉的對象時(shí)作出的動(dòng)作與反應:當機器人識別出物體時(shí),它牢牢抓住放入盒中,同時(shí)電腦上顯示的是微笑的表情;如果對象不熟悉,機器人會(huì )挪開(kāi)手臂,并且會(huì )出現扭曲困惑的表情。
傳統的計算機視覺(jué)學(xué)習形式,主要是通過(guò)輸入數據,經(jīng)過(guò)“監督”學(xué)習訓練網(wǎng)絡(luò )來(lái)識別對象,不同的是,CMU的機器人可以自己教自己。對此,Gandhi解釋說(shuō):“目前計算機視覺(jué)的核心就是你用大量目標特征數據來(lái)訓練,而圖像處理任務(wù)與機器識別這一動(dòng)作任務(wù)之間是相互獨立的?,F在我們想要的就是當機器人與目標對象交互時(shí)獲取的變化數據。通過(guò)這些數據,訓練機器去學(xué)習可以輔助完成視覺(jué)任務(wù)的功能。”
顯然,研究還處于初期階段,但具有一定的前景。未來(lái),觸摸和視覺(jué)學(xué)習的結合可用于分類(lèi)機器人,如ZenRobotics開(kāi)發(fā)的機器人,可將垃圾與回收物品分開(kāi)。當然,該技術(shù)也可以應用到人工智能領(lǐng)域的其他應用方面。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
