CMU研制新一代智能工業機器人,通過觸摸來認識這個世界
CMU的計算機團隊通過讓其機器人通過觸覺反饋和試錯來學習,力求打造觸覺、視覺結合處理和自主學習的新一代智能工業機器人。
我們都知道,在人工智能領域,要想實現對目標的識別、跟蹤和測量,其中一項非常核心的技術就是計算機視覺。目前,國內外有許多家公司和實驗室就在結合深度學習和計算機視覺來進行深度研究與改進,提高機器動作的精度和強度。但是也正如行業內大家所熟知的,無法結合機器的觸覺是機器人發展的一大制約。
據悉,近日卡內基梅隆大學(CMU)的計算機團隊正在訓練Baxter機器人進行抓握訓練,讓其通過觸覺反饋和試錯來學習,研究出觸覺和視覺相結合的新一代智能工業機器人。
該系統使用類似于Kinect的3D攝像機。 Baxter收集的視覺和觸覺信息被發送到一個深層神經網絡,它與ImageNet中的圖像數據交叉輸入。加上觸摸過程的數據訓練,機器人的識別精度比僅使用圖像數據訓練的機器人提高了10%。
實驗室助理Dhiraj Gandhi為大家演示了機器人在接觸熟悉與不熟悉的對象時作出的動作與反應:當機器人識別出物體時,它牢牢抓住放入盒中,同時電腦上顯示的是微笑的表情;如果對象不熟悉,機器人會挪開手臂,并且會出現扭曲困惑的表情。
傳統的計算機視覺學習形式,主要是通過輸入數據,經過“監督”學習訓練網絡來識別對象,不同的是,CMU的機器人可以自己教自己。對此,Gandhi解釋說:“目前計算機視覺的核心就是你用大量目標特征數據來訓練,而圖像處理任務與機器識別這一動作任務之間是相互獨立的?,F在我們想要的就是當機器人與目標對象交互時獲取的變化數據。通過這些數據,訓練機器去學習可以輔助完成視覺任務的功能。”
顯然,研究還處于初期階段,但具有一定的前景。未來,觸摸和視覺學習的結合可用于分類機器人,如ZenRobotics開發的機器人,可將垃圾與回收物品分開。當然,該技術也可以應用到人工智能領域的其他應用方面。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
