比肩人類抓取能力,機器人通用抓取算法亮相世界人工智能大會

IM2Maker 4年前 (2021-07-07)

該機器人在復雜環境的抓取水平已經接近人類。

2021年7月8日,以“智聯世界眾智成城”為主題的2021世界人工智能大會在上海拉開大幕。在今年的大會上,人工智能領域里有哪些新技術亮相,又有哪些新場景落地?

在今日開幕的世界人工智能大會AI@上海的主題展區里,記者發現了一款結合人工智能算法和工業機器人的有趣應用。

工業機器人能像人一樣快速地將各類擺放不整齊,雜亂的物品,例如碎瓷器、瑪瑙石、柔性袋裝零食或布娃娃等,準確且穩定進行抓取。從抓取效果看,這款機器人在復雜情況下的抓取能力已經接近人類水平。

記者了解到,這款應用為上海交通大學-非夕科技智能機器人聯合實驗室共同開發的一款基于視覺的機器人通用抓取算法,名為“AnyGrasp”。

搭載AnyGrasp算法的非夕自適應機器人Rizon可以對未知物體直接進行高速抓取,不受物體種類、是否可變形限制,無需提前的物體建模,對光照、物體紋理皆不敏感。AnyGrasp還具有極快的檢測速度,只需數十毫秒即可生成上千個抓取點,同時單次抓取決策時間極短,因此單位小時內成功抓取效率極高。

據團隊介紹,機器人日常面對的都是大量堆疊的、復雜的、沒有見過的物體,同時場景呈現極度的雜亂性,還沒有相關研究可直接面對任意復雜場景進行抓取。這次聯合實驗室發布的最新算法就解決了這一行業痛點。

為訓練AnyGrasp,上海交大-非夕聯合實驗室團隊收集了超過十億量級的訓練標簽。AnyGrasp 的實現是基于研究團隊提出的一個全新方法論,即真實感知與幾何分析的孿生聯結。真實感知與密集幾何標注原本是矛盾的兩方面,因為真實感知往往需要人工標注,而幾何分析需依賴仿真環境,此前未曾有團隊在這兩方面進行過嘗試。

但在AnyGrasp的幫助下,僅需要一臺1500 元的 RealSense 深度相機,AnyGrasp 即可在數十毫秒的時間內,得到其觀測視野內整個場景的數千個抓取姿態,且均為六自由度,以及一個額外的寬度預測。

在五小時復雜堆疊場景的抓取中,單臂 MPPH(Mean Pick Per Hour, 單位小時內平均抓取次數)可達到 850+,為DexNet4.0(編注:DexNet4.0為此前來自 UCB 的研究團隊發表于《Science Robotics》的成果)的三倍多,這是該指標第一次在復雜場景抓取上接近人類水平(900-1200 MPPH)。

研究團隊介紹,AnyGrasp具有以下優勢:普適性:對未曾見過、復雜場景中的任意物體均可抓取,包括剛體、可變形物體、無紋理的物體等;高速度:數十毫秒內即可生成數千個穩定的抓取姿態;穩定性:對背景、光照、桌面角度等不敏感;低成本:無需高精度工業相機,千元價位的深度相機(如Intel RealSense)即可勝任。

據介紹,自適應機器人與先進AI算法的實際結合,不但有助于實驗室在其算法的研究和應用層面進行更多嘗試,同時有力助推了非夕對醫療、餐飲、服務等更多生活化領域的市場拓展。

值得一提的是,據現場非夕機器人工程師介紹,賦予自適應機器人通用抓取能力的背后,其實是一套名為穹知NOEMA系統。該系統是是面向全行業的云-邊-端協同一體的通用智能機器人大腦,它能夠基于機器人的多信息感知進行AI算法研究和應用產品開發,進而指導機器人完成復雜任務。

上海交通大學-非夕科技智能機器人聯合實驗室成立于2019年,專注于AI領域內關鍵問題的研究和應用實踐,同時注重促進相關領域內的優秀人才培養。

上海非夕機器人科技成立于2016年,專注于研發、生產集工業級力控、計算機視覺和人工智能技術于一體的自適應機器人產品,為不同行業的客戶提供基于非夕機器人系統的整體、創新性的解決方案和服務。截止目前,非夕已經完成4輪融資,其中2020年12月完成超1億美元的B輪融資,該輪融資使非夕成為全球通用機器人領域單輪融資總額最高的公司。

最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!

鎂客網


科技 | 人文 | 行業

微信ID:im2maker
長按識別二維碼關注

硬科技產業媒體

關注技術驅動創新

分享到