微軟的AI策略:軟硬結合,多交朋友
火藥味少了
就在本周,NVIDIA英偉達剛剛發布了最新的AI芯片H200 GPU,引發了業界廣泛關注。
不過AI圈苦算力久矣,看看二手平臺30萬一張的H100,相信規格又有提升的H200價格也不會便宜到哪去。
處在行業前列的科技大廠們同樣要考慮“降本增效”的事兒,“自研芯片”就是其中一條出路。
而在今天稍早的Ignite 2023大會上,微軟終于公布了那個“傳說中”代號“Athena雅典娜”的芯片——Azure Maia 100,同時還有Cobalt 100,兩者將用于強化Azure AI和Microsoft Copilot服務。
算力還行,顯存不夠
首先是Maia 100,這是一款專為Azure云服務和AI工作負載設計的ASIC芯片,適用于x86系統,可用于OpenAI模型、Bing、GitHub Copilot和ChatGPT等AI工作負載運行云端訓練和推理。
基于臺積電5nm工藝,單芯片擁有1050億個晶體管。在算力方面,MXInt8格式下,算力可以達到1600 TFLOPS,在MXFP4格式下則為3200 TFLOPS。這個水平和英偉達的H100相比也差距不遠了。
不過由于Maia 100的立項設計是早于大語言模型熱潮之前的,因此在顯存上的規劃要相對保守,只給了4層堆棧64GB HBM3顯存,帶寬也只有1.6TB/s,無論速度、堆棧層數還是容量,都遠不及H100。有關顯存對于AI計算,尤其是推理效率的意義,大家可以參考《英偉達H200發布,性能很強,奈何買不到》,這里就不再贅述。
不過微軟有一個獨特的領先之處,每塊Maia 100的芯片內都直接集成了RDMA以太網IO,可以很方便的進行多芯片互聯,相當于英偉達的NVLink。這使得Maia 100能夠很輕松地實現數量龐大的芯片互聯,而不需要外置網卡協助。
OpenAI首席執行官Sam Altman表示:“Azure Maia 是專門為 AI 設計的,旨在實現硬件的絕對最大利用率”,OpenAI也已經用自己的模型(GPT-3.5 Turbo)對Maia進行了測試與改進。
另一款Cobalt 100 CPU則是一款高能效設計的Arm架構芯片,專門用于在微軟Cloud上運行通用計算工作負載。這款芯片可以提供高密度、高可靠性和高安全性的計算服務,適用于 Web 應用、數據庫、容器和微服務等。
硬件規格上,Cobalt 100擁有128個Neoverse N2內核,支持12通道DDR5內存。
根據微軟硬件產品開發副總裁所說,Cobalt 100的主要目標是優化整個數據中心的“每瓦性能”以實現可持續發展。
取代英偉達?不,擴大合作!
前面也提到了,長期以來,英偉達的AI芯片上幾乎具有統治級的地位,旗艦芯片不僅一卡難求,更是價格高昂,有分析計算,AI服務比傳統互聯網服務如搜索引擎的成本高10倍。
實際上,微軟已經是Meta、谷歌等巨頭中較晚發布自研芯片的公司了,目的基本都是降低成本。
本以為,這次的微軟芯片應該也會劍指英偉達,形成競爭關系,但事實好像并非如此。
一方面,微軟表示,他們并不打算出售這些芯片,而是將它們用于為其自己的訂閱軟件產品賦能,并作為其Azure云計算服務的一部分。
另一方面,微軟還宣布將會擴大行業合作伙伴關系,推出了基于英偉達H100構建的NC H100 v5 VM系列的預覽版,明年還會添加英偉達的H200 GPU,以實現更大的模型推理能力,現場更請來了英偉達CEO黃仁勛站臺。同時,AMD的MI300X芯片似乎也找到了新客戶。
很明顯“這并不是取代NVIDIA的東西”。
軟件才是王炸
Azure硬件系統和基礎設施(AHSI)公司副總裁Rani Borkar表示,微軟是一家軟件公司,現在共同設計軟件和硬件是為了實現1+1>2的效果,硬件只是其中一部分。
首先,Bing Chat和Bing Chat for Enterprise,正式更名為Copilot。后續不僅可以通過瀏覽器網頁進行訪問,還會上線移動設備。
同時,微軟還帶來了低代碼工具“Copilot Studio”,可以在同一網頁中構建、部署、分析和管理內容,通過拖放這種簡單易懂的方式,就能直接構建和發布插件到適用于Microsoft 365的Copilot。
它甚至還集成了OpenAI前段時間剛公布的GPTs,可定制Copilot,或構建獨立的協同助手,包括自定義的 GPT、生成式AI插件等,可以自定義主題。
寫在最后
整場Ignite 2023大會可以說是干貨滿滿,筆者總結的并不全面。
不過有趣的是,似乎沒人帶著英特爾玩了?
本文作者:Visssom,觀點僅代表個人,文章圖片均來自微軟
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
