一、華為智駕系統歷史迭代 華為高階智能駕駛系統(ADS)最新版本為今年4月智能汽車解決方案發布會上官宣的華為乾崑ADS 3.0,...
一、華為智駕系統歷史迭代
華為高階智能駕駛系統(ADS)最新版本為今年4月智能汽車解決方案發布會上官宣的華為乾崑ADS 3.0,預計將在與北汽合作的豪華旗艦轎車享界S9上首發搭載。
此前的1.0及2.0版本分別于2021年及2023年發布。相較于歷史版本,ADS3.0在軟件架構及功能上均有所升級。
在硬件迭代上,華為ADS堅持多傳感器融合方案。從ADS1.0到3.0迭代過程中,華為堅持多傳感器方案,通過激光雷達、毫米波雷達、攝像頭等多傳感器互補融合感知,以達到在惡劣天氣及光線不足情況下仍能有較好的感知識別表現。
二、華為硬件配置特點
在硬件配置上,華為ADS堅持多傳感器融合方案。
考慮到目前ADS3.0尚未公布對應的硬件配置方案,我們從ADS1.0及ADS2.0的硬件配置對比分析來看,硬件數量持續“做減法”,包括激光雷達用量、毫米波雷達用量、攝像頭用量均有所減少,同時,端側處理器簡化算力配置,以進一步降低總成本。
(1)激光雷達:硬件成本核心,數量大幅下降
細分來看,激光雷達的數量減少是硬件總成本降低的核心原因。
盡管近年來隨著規模應用及上游原材料下降等因素,激光雷達產品均價呈現大幅下降,但目前其單價范圍仍在數百美元至數千美元不等,橫向對比來看,激光雷達依然是智駕硬件方案中最為昂貴的配置之一。
因此,由ADS1.0向2.0的迭代中激光雷達用量從3個減配至1個,去除了2個側向激光雷達,僅保留1個前向激光雷達,使得對應成本大幅減少。
雖然用量減少,但硬件實現升級。ADS 1.0中采用的是華為自研的96線激光雷達, 而ADS 2.0中根據車型不同,采用等效126線的速騰聚創M1雷達或192線(業界車規 級量產最高線數)激光雷達,ADS 3.0預計亦將采用自研的192線激光雷達,在分辨率、刷新頻率上持續提升。
(2)毫米波雷達:傳統雷達用量減少,探索4D產品的使用
毫米波雷達用量亦呈現下降趨勢。華為ADS1.0中配置了1顆前向雷達及1顆后向雷達、4顆角雷達,而在ADS2.0中僅保留了1顆前向雷達及2顆角雷達。
華為推出自研4D毫米波雷達并有望搭載于享界S9。
4D毫米波雷達相較于傳統毫米波雷達新增了1D高度信息,可實現類似激光雷達的成像功能,目前行業正積極探索4D毫米波雷達的使用。
華為在今年4月首發了自研的高精度4D毫米波雷達,其相較于傳統雷達探測距離提升35%達到280m,且支持泊車模式,垂直視野3倍提升至60°,距離精度提升4倍至5厘米。據官網,即將于8月發布的享界S9將標配4D毫米波雷達。
(3)攝像頭:前視方案由多目向雙目轉換
攝像頭從多目轉向雙目,與行業主流趨勢一致。
攝像頭作為汽車自動駕駛系統的視覺傳感器,主要起到搜集車輛周邊環境、人、車情況等圖像信息的作用。根據配備攝像頭的數量,車載攝像頭方案可分為單目/雙目/多目。單目相機最為常見,其視距較遠,但無法獲取深度信息;雙目相機擁有兩個攝像頭,可獲取深度信息,但需要較為精確的相機標定;多目相機在雙目相機基礎上可獲得更多信息,但在信息融合、計算等層面需要更多的支持,成本相對較高。
目前國內主流廠商的前視相機大部分采用多目方案,但隨著攝像頭分辨率提升及出于成本考量,配備攝像頭數量逐步從2個以上減少為2個。
(4)車載算力:逐步貼近實際需求
車側算力從超配轉向貼合實際需求。
從產品發布歷史來看,從MDC 300F到MDC 810,CPU及算力配置呈現升級,但實際上車算力從ADS 1.0的400TOPS降至ADS 2.0的200TOPS;大算力硬件的搭載或為未來升級更高等級的自動駕駛方案做好準備,但現階段應用中或出現算力冗余,帶來不必要的功耗及里程問題。
三、華為智駕算法架構特點
1、“識物” :從BEV到GOD,從人工標注到自主決策
BEV(Bird’s Eye View)指的是一種鳥瞰式的立體視角/坐標系,相當于在車輛正上方10-20米處俯視車輛及周圍環境,也被稱為“上帝視角”。
華為ADS 1.0主要采用BEV + Transformer算法,Transformer是一種新型神經網絡架構,可以直接進行2D、3D不同序列之間的轉換。整個BEV + Transformer方案的思路基本為“輸入-提取-轉換-融合-時序-輸出”,可將多傳感器采集到的數據融合并展現在同一坐標中,形成一個虛擬的向量空間,所有的分析和決策都在這個空間中進行。
存在問題:該算法需要在開發階段對識別到的目標進行人工標注,即“白名單機制” ;但實際路況非常復雜,障礙物標識存在“長尾效應”——白名單中不存在的物體數量多而種類繁雜, 如石塊、樹木等,從而發生事故。
ADS 2.0及3.0:從BEV走向GOD
為解決長尾效應問題,BEV進一步迭代為Occupancy Network(占用網絡),而ADS 2.0使用的GOD算法與占用網絡類似。該算法將整個世界劃分為極其微小的立方體,然后判斷每個小立方體是否被占用。
參考特斯拉的Occupancy Network方案,其攝像頭形成的周視信息先被發送到骨干網絡中進行特征提取、產生“占用體積”特征,然后將該特征與之前時序的體積相融合,產生4D占用網格,最后使用反卷積獲得體積及時序等反饋,從而實現動態以及靜態的障礙物感知。
相較于BEV的更優表現:由于該算法將現實世界分割成了小方塊,從而跳出了物體識別的固有思維,所以對異形障礙物的識別上具有較強的表現。
3.0版本中,進一步去除了BEV算法,僅保留GOD算法。
2、“識路” :從有圖到無圖,采用RCR實現車輛的正常行駛
對于道路拓撲結構的識別上,從ADS 1.0到ADS 2.0,經歷了從有圖到無圖的轉變。
高精地圖與導航地圖的區別:高精地圖包括了傳統地圖的道路網數據、車道網絡數據 (車道線的位置、類型、寬度、坡度和曲率等車道信息)以及交通標志等,而傳統導航地圖僅包括方向級的路徑規劃、以及道路級的定位匹配等。人類駕駛員僅憑傳統導航地圖及自身的視覺感知、決策可實現日常需求,但對于自動駕駛系統而言則需要高精地圖才能實現精確的路徑規劃。
實際應用中,“有圖”方案存在兩大缺點:一是新城滲透速度慢,從政府開放城市采集名單、圖商制圖到車企研發適配需要2-3年的時間;二是更新不及時,由于高精地圖測繪耗時耗力,目前高精地圖的更新頻率在1-3個月左右,但小鵬汽車前自動駕駛副總裁吳新宙就曾表示,僅在廣州,半年就有500多處修路改造的情況發生,平均一天2處。
“無圖”方案城市泛化速度快:相較于有高精地圖,華為智能駕駛解決方案產品線總裁李文廣表示, “無圖最大的一個好處是泛化城市很快。”華為ADS 2.0在2023年Q2已實現深圳、上海、廣州、重慶、杭州的城區NCA落地,并在2024年春節之前實現了無圖智駕城區NCA對M5\M7智駕版用戶的全量推送,2024年3月實現了對問界M9的全量推送。
算法上亦迎來對應改變:ADS 1.0通過高精地圖實現車道識別,而ADS 2.0去除了高精地圖,轉向基于BEV架 構的道路拓撲推理網絡方案(RCR),將車輛自身視覺感知搜集到的信息,經過一系列的推理算法生成自身 的“高精地圖”,結合導航地圖實現實時路徑規劃。
3.0進一步更新為PDP(預決策規劃)。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
