無需VR外設,普林斯頓學霸用DeepHand解放你的雙手
普林斯頓大學的研究人員用深度傳感攝像頭和深度學習網絡開發DeepHand系統,可以把手勢運動整合到VR環境中去。
你能想象當你體驗VR游戲的時候,手上再也不用戴上一些額外的設備就可以在虛擬現實中“縱橫捭闔”嗎?普林斯頓大學的學霸們給你yes的答案。
在VR中最常見的輸入方式是用操作桿或者手柄,也會有眼控以及聲控等,不過就目前發展狀況來看,手勢識別更有可能成為主流。此前來自荷蘭的開發團隊就推出過名為Manus VR的手套,他們利用位置追蹤技術實現手部追蹤,讓玩家擺脫手持控制器的束縛。
普林斯頓大學研究的這款系統叫做DeepHand,其工作原理有點類似于Leap Motion的深度手勢識別基礎功能Orion?;陔p目識別技術的Orion提供了一種新的手勢識別的輸入方式,它通過雙目攝像頭采集信息,經過一系列的流程將手部的活動信息實時反饋到處理器,最后顯示在VR頭顯中。
Orion的手勢識別原理
而DeepHand也是通過攝像頭采集各種角度和方式的手勢變化,之后經過深度學習網絡開發的特定算法,在存有超過250萬手勢的數據庫中快速掃描,匹配出精確度最高的手勢動作,最后在VR環境中顯示出來。
DeepHand的工作原理
該研究論文的作者Ayan Sinha表示:“我們能夠識別手勢的不同角度,通過攝像頭觀察不同的角度變換,算法將其轉化為數字信號,然后在VR環境中呈現。”同時為了確保虛擬手勢運動能夠得到快速反饋,研究人員們主要通過判斷數據庫中手勢動作的數字位置,然后推算出其鄰近的數字位置,進而預測手勢變化的可能性。
這是深度學習網絡中,研究人員首次使用DeepHand識別手勢,并將其反饋到數據庫中。雖然在運行這些數據的過程中需要強大的計算處理能力,但是對于一臺普通配置的電腦來說仍然是可以駕馭的。我們可以期待這款識別系統真正投入使用中會與VR產生怎樣的“化學反應”。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
