谷歌新開放了一個數據庫,要讓機器自動識別視頻中的動作行為

巫盼 8年前 (2017-10-23)

谷歌希望通過開放這個數據庫,進一步改進他們基于視頻識別的機器視覺能力。

谷歌在機器視覺學習方面積累大量的數據以及技術,最近,他們推出了一個新的視頻數據庫,名稱為“原子視覺行為(AVA)“,該數據可由一個或多個標簽組成,能夠推動計算機視覺識別影像中行為的研究。

谷歌新開放了一個數據庫,要讓機器自動識別視頻中的動作行為

說到圖像識別,其實谷歌的照片應用就可以自動識別出寵物圖像,很多公司也在圖片識別上作出很多優化嘗試,比如Shutterstock上周公布了一項全新的測試功能,用戶可以根據自己的布局來搜索股票照片。

相較于這些發生在靜態圖像領域的機器視覺識別技術,應用到視頻中的難度會更大,因為在視頻中,每一幀畫面的都包括各種復雜的場景,而且很多時候視頻中一個動作是由不同的人發出的。不過視頻識別方面的應用現在也有一些案例,比如著名色情網站Pornhub,它可以自動對成人視頻進行分類,包括讓系統識別出特定的性姿勢。

谷歌的軟件工程師也解釋道, “讓機器去識別影像中的人類行為是發展計算機視覺的一大難題,盡管過去幾年在圖像分類和尋找物體方面取得了突破。”所以谷歌推出了這個AVA數據庫,AVA包括80多個被動作標簽標注的Youtube視頻網址,比如握手、接吻、喝酒、擁抱等等。

谷歌希望通過開放這個數據庫,進一步改進他們基于視頻識別的機器視覺能力。

最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!

鎂客網


科技 | 人文 | 行業

微信ID:im2maker
長按識別二維碼關注

硬科技產業媒體

關注技術驅動創新

分享到