MIT深度學習最新進展:機器學會創作視頻,預測人類行為

韓璐 9年前 (2016-11-29)

在本年度的NIPS上,MIT 計算機科學和人工智能實驗室的研究員們提交了結合對抗學習和無監督學習兩種方法的研究。

MIT深度學習最新進展:機器學會創作視頻,預測人類行為

MIT計算機科學和人工智能實驗室(CSAIL)的研究員開發了一個深度學習算法,能夠自動生成視頻,并預測出接下來的視頻內容。

研究成果論文將在下周在巴塞羅那舉行的NIPS(Conference on Neural Information Processing Systems)上發表。CSAIL的研究團隊讓該算法觀看了200萬條視頻,這些視頻加起來如果要回放的話,需要2年的時間才能播完。

視頻包含了日常生活的常見場景,以讓機器更好地適應正常的人類交流行為。更重要的是,這些視頻是“野生”的,也就是說,它們都是非標簽的。簡單地說,就是研究員不會給算法提供理解視頻內容的任何線索。

在這一視頻數據集的基礎上,算法將基于200萬條視頻中獲得的觀察,嘗試從零開始生成視頻,這和人類創作視頻的步驟是一樣的 。隨后,生成的視頻會被填入另一個深度學習算法中,新的算法負責判斷哪些視頻是機器生成的,哪些是“真實”的。這種訓練機器的方法叫對抗式學習(adversarial learning)。

研究使用的神經網絡工作原理

計算機視覺研究領域中,許多研究者都在攻克類似的問題,其中就包括MIT的教授Bill Freeman,他在“視覺動態”(visual dynamics)領域的工作也能提前創造出視頻中下一幀。但是,他的模型聚焦于推斷性的視頻,Torralba的視頻能夠生成全新的視頻,這些視頻內容此前是從未講過的。

MIT深度學習最新進展:機器學會創作視頻,預測人類行為

圖來自 : Carl Vondrick, MIT CSAIL

此前的系統都是一幀一幀地創建場景,這會帶來巨大的失誤概率,這項研究聚焦于一次處理整個場景,算法每秒生成32幀圖像。“一幀一幀地創建場景,意味著信息是被分成很多塊的”,Vondrick說,“我們采用同時預測所有幀的方法。”

當然,一次生成所有的幀也有缺點:在變得更精確的同時,長視頻中的計算機模型會變得更加復雜。

為了創建出多幀的效果,研究者教會模型在不受背景的影響下生成前景,然后,把對象放到場景中,讓模型學習哪一個物體是移動的,哪一個不動。團隊使用了“對抗學習”的方法,在多次嘗試后,生成器學會如何“欺騙”區分器(discriminator)。

“雙流架構”,生成視頻更逼真

“在這一模型的早期原型中,我們的發現是,生成器(也就是神經網絡)會改變背景或者在背景中加入異常的動態圖片,來嘗試欺騙其他的網絡”,CSAIL博士候選人、論文第一作者Carl Vondrick說,“我們需要告訴模型一個概念,那就是現實世界在大多數情況下都是靜態的。”

為了改正這一問題,Vondrick和他的同事創造了一個“雙流架構”(two-stream architecture),這一架構會強迫生成的網絡在前景中的對象移動時,對靜態的背景進行渲染。

這種”雙流架構“模型生成許多更加逼真的視頻。算法生成的視頻是64X64分辨率的,包含了32幀(標準的電影是每秒24幀,這意味著算法生成的視頻有1秒~1.5秒),視頻描繪的內容包括沙灘、火車站以及新生兒的臉(下圖,這相當嚇人)。

MIT深度學習最新進展:機器學會創作視頻,預測人類行為

雖然聽起來從零開始生成幾秒的視頻并沒有多了不起,但是這比起此前的研究已經有了顯著的進步,此前使用深度學習框架,只能生成一個視頻中的幾幀,并且在內容上,也會受到更為嚴格的參數限制。

讓機器生成視頻遇到的一個主要難點在于,視頻中的物體是動態的,特別是人物,常常被渲染成模糊的一團,雖然研究者都在堅持:“我們的模型有潛力生成非常好的動態場景”。

確實,這種場景是非常值得贊嘆的。研究者向亞馬遜的Mechanical Turk的工作人員展示了一段由機器生成的視頻和原來“真”的視頻,向他們求證哪一段視頻更為真實,結果,有20%的人選擇了機器生成的視頻。

MIT深度學習最新進展:機器學會創作視頻,預測人類行為

團隊采用了兩個神經網絡,互相對抗,其中一個嘗試欺騙另一個,讓它認為自己生成的視頻是“真”的。圖:MIT CSAIL

除了生成原始視頻,這一研究另一個亮眼的成果是能在已有的視頻和照片上進行應用。當研究者把深度學習算法應用到一個靜態的幀中,算法就能夠識別出照片中的物體,把它們制作成32幀的動圖,生成”非常合乎常理“的動作。Vondrick說,根據自己的了解,這是首次實現讓機器從靜態圖片中生成多幀的視頻。

這種預測對象或人的運動的能力對于未來機器融入現實世界是至關重要的,因為這將允許機器不采取可能傷害人的動作,或者幫助人們不傷害自己。根據Vondrick的說法,這一研究成果對無人監督的機器學習也有促進作用,因為這種類型的機器視覺算法接收的是來自未標記視頻的所有輸入數據。

如果機器真的想要善于識別和分類對象,它們將需要能夠在沒有標簽數據的情況下這樣做。

但是對于Vondrick來說,他的研究中最令人興奮的可能性之一卻跟科學或現實世界沒什么關系。他純粹是想讓機器創作一段視頻。

“從某種程度上來說,我對讓機器自己創作一段視頻或者電視節目非常癡迷”,Vondrick說,“我們只生成了一秒鐘的視頻,但隨著我們的進步,也許可以生成幾分鐘的視頻,講一個連貫的故事。我們現在還做不到,但我認為我們邁出了第一步。”

編者按】本文轉自新智元。文章來源:robohub.org、motherboard,作者:DANIEL OBERHAUS。編譯:弗格森

最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!

鎂客網


科技 | 人文 | 行業

微信ID:im2maker
長按識別二維碼關注

硬科技產業媒體

關注技術驅動創新

分享到