英偉達CEO黃仁勛:GPU是AI時代利器,發布全球首款可編程AI引擎
我們看到已經脫下顯卡廠商標簽的英偉達,在人工智能的路上走得越來越遠。
9月26日,英偉達于北京召開的GTC 大會中國站正式開幕,英偉達創始人兼CEO黃仁勛用了兩小時的時間系統的介紹了英偉達的人工智能生態發展。
在主題為《AI Trends, Challenges and Opportunities》的演講中,黃仁勛表示人工智能無處不在,摩爾定律已經終結,而深度學習強勢襲來,這其中GPU將發揮出強大的力量。
如果給老黃這次的演講畫個重點的話,主要有下面幾大塊:
TensorRT3深度學習引擎,減少推理過程的延遲
黃仁勛花了很大篇幅介紹了英偉達最重要的產品——深度學習推理引擎TensorRT3,TensorRT3是一種可編程的AI推理加速器,支持現階段大部分神經網絡框架,并能加速現有和未來的網絡架構。
作為連接深度學習框架和硬件的中間橋梁,英偉達TensorRT3 的性能非常卓越,黃仁勛舉了個例子:運行在Volta上的TensorRT3在圖像分類方面比最快的CPU還要快40倍,在語言翻譯方面則要快140倍等等。
為了進一步展示TensorRT3的性能,英偉達現場展示了用語音在《權力的游戲》視頻內搜索“The Winter is coming”的片段,從語音到文字再到畫面的搜索,幾乎沒有任何延遲。
通過 TensorRT3,開發者可以大幅減少推理過程的延遲現象,幾乎可達到實時反應的情況,對于像在線影音分類、對象偵測以及自動駕駛的應用來說,這些都是是非常重要的特性。
和國內云服務公司合作,大規模投入Tesla V100芯片的服務器
今年五月,英偉達發布全新Volta架構時,首先推出的就是專為HPC和AI的融合而設計的Tesla V100計算卡。目前,它主要整合在HGX-1加速器中被使用。
關于英偉達的Tesla V100,黃仁勛介紹了目前國內一批合作項目。其中,阿里巴巴、騰訊、百度、京東、訊飛都已經采用了英偉達Volta GPU,免于建造超級計算機的復雜性以及高昂的建造費。
而英偉達的HGX服務器則是在8個Tesla V100 加速單元的基礎上搭建的AI專用加速器,單個HGX服務器在語音/圖像識別推理方面的計算性能相當于150個傳統CPU 服務器。
英偉達宣稱,在深度學習任務中,HGX-1 與傳統基于CPU的服務器相比,性能可以提升100倍,人工智能訓練任務的花費為后者的 1/5,AI推算的十分之一。黃仁勛提到每臺 V100 服務器可以為客戶節省50萬美元的成本。
在GTC China上,英偉達也表示已經和國內的阿里云、百度云、騰訊云合作,大規模投入使用搭載新一代 Tesla V100芯片的服務器。
下一個AI時代,正走入與人類交互的機器中來
這幾年,英偉達一直非常關注人工智能的發展,黃仁勛說,下一個AI時代,是AI離開云端,走入與人類交互的機器中來。
這次主題演講中,黃仁勛也推出了他們的全球首款自主機器處理器Xavier,該芯片會出現在下一代Jetson系統上,2018年第四季度會正式大規模推出。
不過,京東X會率先采用英偉達的Jetson平臺,兩家將共同研發倉儲機器人 jRover 及自動送貨無人機 jDrone,實現自主機器。
這次GTC大會上,英偉達還介紹了他們的開放自動駕駛計算平臺Drive,目前已經有145家初創公司正在研制基于英偉達Drive的自動駕駛汽車、卡車、高精制圖及服務。在黃仁勛的演講中,我們看到已經脫下顯卡廠商標簽的英偉達,在人工智能的路上走得越來越遠。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
