侵權(quán)投訴
訂閱
糾錯
加入自媒體

毫末AI DAY的智駕彈藥:上有「世界模型」,下有3000元方案

作者|張祥威

編輯|德新

「我們的感知能力可以說能做到識別萬物了。」毫末智行在第九屆毫末AI DAY上拋出這一豪言。?

識別萬物的底氣,源于毫末的DriveGPT自動駕駛大模型引入了通用語義大模型,可以對交通參與者者、道路環(huán)境等做到全面感知。?

今年是智駕獲得公眾接受度的關(guān)鍵節(jié)點。?

而明年,隨著技術(shù)門檻更高的「無圖」城市NOA落地,頭部智駕頭部玩家大概率會迎來收獲期。毫末在自動駕駛大模型上的諸多準(zhǔn)備,正是為迎接大戰(zhàn)。?

不止有進(jìn)化的大模型,毫末還帶來三款高級輔助駕駛產(chǎn)品HP170、HP370、HP570,劍指無圖城市NOH、記憶行車等大熱功能。?

當(dāng)下,毫末智駕方案已經(jīng)在山海炮HEV版、新摩卡Hi-4S等車型上搭載,明年一季度,搭載毫末城市NOH功能的魏牌藍(lán)山將量產(chǎn)交付。?

智駕大規(guī)模普及的時刻就要到來,毫末開始加快腳步。?

與眾多公司的科技日如特斯拉AI ?DAY、蔚來NIO DAY相比,這屆毫末AI DAY的既有前沿技術(shù)進(jìn)展的分享,又有極具競爭力的落地方案,有諸多看點。?

一、克制的智駕方案

AI DAY上,毫末一口氣推出三款智駕方案產(chǎn)品,共同點是「極致性價比」。?

·HP170:算力5 TOPS,傳感器方案標(biāo)配1個前視相機、4個魚眼相機、2個后角雷達(dá)、12個超聲波雷達(dá),支持選裝1個前視雷達(dá)和2個前角雷達(dá)。

·HP370:算力32 TOPS,傳感器方案標(biāo)配2個前視相機、2個側(cè)視相機、1個后視相機、4魚眼相機、1個前雷達(dá)、2個后角雷達(dá)、12個超聲波雷達(dá),支持選裝2個前角雷達(dá)。

·HP570:算力可選72 TOPS和100 TOPS兩款芯片,傳感器方案標(biāo)配2個前視相機、4個側(cè)視相機、1個后視相機、4個魚眼相機、1個前雷達(dá)、12個超聲波雷達(dá),支持選配1顆激光雷達(dá)。

對比同行,這幾套方案有以下特點:?

首先,更低的芯片算力。?

毫末采用基于5TOPS的芯片算力平臺實現(xiàn)高速NOA,而實現(xiàn)城市NOA的方案,最高只需要要100TOPS的算力,比主流城市NOA智駕方案所需的算力都要低。?

據(jù)HiEV了解,三套方案中的芯片分別為地平線征程3、TI的TDA4,以及高通Ride的SA8650芯片,這種高中低采用不同芯片方案的策略,也為量產(chǎn)搭載更多款車型提供了條件。?

主流的智駕方案中,實現(xiàn)城市NOA通常需要兩顆英偉達(dá)Oin X芯片,算力為508TOPS,少數(shù)玩家如智己、騰勢,可以基于單顆英偉達(dá)Orin X芯片,算力為254TOPS。當(dāng)然,更低算力的要屬特斯拉的FSD,僅需144TOPS。?

更低算力,意味著需要對算力有更極致地有效利用,同時要強化算法的能力。用更低的算力實現(xiàn)城市NOA,毫末的智駕技術(shù)水準(zhǔn)和市場野心可見一斑。?

其次,在傳感器規(guī)模上也相對克制。?

相較行業(yè)主流方案,毫末的智駕方案數(shù)量會更少一些。以搭載高階智駕全享包的騰勢N7作對比,這款車搭載33個傳感器:?

2個激光雷達(dá)、5個毫米波雷達(dá)、2個前視攝像頭、4個環(huán)視攝像頭、12個超聲波雷達(dá)、4個側(cè)視攝像頭、1個后視攝像頭、1個OMS攝像頭、1個DMS攝像頭、1個DVR攝像頭。?

毫末可以實現(xiàn)高階智駕同等功能的HP570,傳感器數(shù)量為24個,其縮減的部分是,方案中減少了毫米波雷達(dá),而且激光雷達(dá)也并非標(biāo)配。?

最后,由于更低的算力的芯片,以及克制的傳感器規(guī)模,還帶來第三個特點,更低的BOM成本。?

毫末智行董事長張凱認(rèn)為,「讓中階智駕便宜好用,讓高階智駕好用更便宜,是毫末未來一年提交給中國智駕市場的答卷!?

毫末的三款智駕產(chǎn)品,最低為3000元級別,最高的高階自動駕駛方案大概8000元級別,這與現(xiàn)在動輒上萬的智駕選裝包相比,無疑頗具殺傷力。?

HiEV了解到,毫末的最新方案中,HP170已經(jīng)定點,配合整車開發(fā)和上市的節(jié)奏,預(yù)計會在明年初上市;HP550預(yù)計在明年上半年藍(lán)山的下一代車型搭載上市,支持記憶行車和記憶泊車;HP370 預(yù)計明年量產(chǎn),而更新一代的HP570則會稍晚一些。?

長線看,毫末的產(chǎn)品會全面平臺化,提供高中低全系的智駕方案。?

祭出成本更低的殺招,那么毫末的產(chǎn)品技術(shù)實力究竟如何呢??

二、可實現(xiàn)無圖城市NOH,2024落地百城

一家公司的智駕能力,既體現(xiàn)在產(chǎn)品的上車規(guī)模和行駛里程,也體現(xiàn)在技術(shù)能夠達(dá)到的廣度和上限。?

毫末的智駕方案HPilot產(chǎn)品已經(jīng)搭載超過20款車型,用戶輔助駕駛行駛里程突破8700萬公里。由于起步不如蔚小理早,用戶輔助駕駛行駛里程規(guī)模還不像對方那么龐大,但從搭載車型上,搭載車型規(guī)模是遠(yuǎn)超蔚小理的。?

毫末的技術(shù)能力能力廣度和上限,體現(xiàn)在可實現(xiàn)的功能上。?

顧維灝說,毫末可以做到在城市道路中時速最高70公里在50米的距離下,就能檢測到大概35cm高的小目標(biāo)障礙物,可以做到100%的成功繞障或剎停。

下面一段視頻,可見毫末智駕方案的技術(shù)能力。???

面向L4的小魔駝,在城市開放道路進(jìn)行無人駕駛時,也已經(jīng)快于普通人騎自行車的速度。在行駛安全和通行效率上,均已達(dá)到商用狀態(tài)。?

與那些從基于高精地圖轉(zhuǎn)為去高精地圖方案的玩家相比,毫末一早確立了重感知輕地圖的技術(shù)路線。?

基于高精地圖的技術(shù)路線,開頭容易,之后要在不同城市落地時,會面臨泛化挑戰(zhàn)。而重感知輕地圖的好處是,開始難,但越走越快,能完成更快的城市落地。?

毫末的高速無圖NOH功能,可以實現(xiàn)高速、城市快速路上的無圖NOH,短距離記憶泊車等功能,并獲E-NCAP 5星AEB的高安全標(biāo)準(zhǔn)認(rèn)證。?

此外,毫末還可實現(xiàn)高速、城快,以及城市內(nèi)的記憶行車,免教學(xué)記憶泊車、智能繞障等功能。高階方案還支持無圖記憶行車和泊車。 ? ? ? ? ? ??

城市全場景無圖NOH,則可實現(xiàn)全場景城市無圖NOH、全場景輔助泊車、全場景智能繞障、跨層免教學(xué)記憶泊車等功能。?

早期行業(yè)主打的智駕功能是高速NOA,之后是城市NOA,并在研發(fā)城市NOA時同步去掉高精地圖,逐漸邁向今天的 去高精地圖的“無圖“階段。?

眼下能做到無圖的,僅有小鵬、華為、蔚來等少數(shù)幾家。誰具備無圖能力,基本上便是智駕第一梯隊成員。?

毫末三款智駕產(chǎn)品的推出,意味著其智駕方案出手即高點,廣度覆蓋了當(dāng)下熱門功能,上限與頭部玩持平,讓自身站位來到第一梯隊。按照計劃,毫末的城市NOH落地目標(biāo)是100城。·?

以上這些是毫末在乘用車NOH上的布局,會為明年智駕的普及大年做好準(zhǔn)備。而之所以能在成立后短短幾年做到無圖等水平,離不開其核心,也是近幾屆AI DAY上常提到的自動駕駛大模型。?

三、DriveGPT進(jìn)化,可識別萬物

自動駕駛其實是讓汽車學(xué)習(xí)人類駕駛,這需要感知道路上的各類交通參與者,處理真實世界中無窮無盡的突發(fā)狀況,最終順利抵達(dá)目的地。?

行業(yè)慣常做法,是在云端建立一個自動駕駛生成式大模型,然后通過剪枝、蒸餾的方式,把云端大模型的能力下放到車端,從而讓汽車像人類司機一樣開車。?

與人類大腦一樣,自動駕駛生成式大模型也要不斷進(jìn)化。?

今年的CVPR 2023,特斯拉和英國自動駕駛公司W(wǎng)ayve等均展示了自動駕駛大模型的新進(jìn)展。?

目前,特斯拉可以利用大模型生成連續(xù)視頻,打造World Model即世界模型。?

Wayve也在朝類似方向努力,其自動駕駛大模型GAIA-1,在通過持續(xù)擴(kuò)展后已經(jīng)擁有90億個參數(shù),可以生成駕駛場景視頻,描述場景以及做出預(yù)測。?

上月,Wayve還推出了視覺語言動作模型LINGO-1,可用于描述自動駕駛的行為和推理。?

這些做法,直白地講就是從原來僅學(xué)習(xí)文本,開始向看圖、視頻學(xué)習(xí),從而與自動駕駛不斷地更好融合。?

根據(jù)毫末官方數(shù)據(jù),目前團(tuán)隊已篩選出超過100億幀互聯(lián)網(wǎng)圖片數(shù)據(jù)集,480萬包含人駕行為的自動駕駛4D Clips。?

毫末將自動駕駛分為三個時代,其中,自動駕駛3.0時代需要1億公里。目前,用戶輔助駕駛行駛里程已經(jīng)達(dá)到8700多萬公里,預(yù)計到年底可達(dá)到這一目標(biāo)。?

隨著數(shù)據(jù)規(guī)模的增加,也為了更好地進(jìn)入3.0時代,自動駕駛大模型需要不斷進(jìn)化。?

感知模型中引入圖文多模態(tài)大模型,以完成4D向量空間到語義空間的對齊,做到可以具備「萬物識別」的能力,毫末將其稱之為自動駕駛語義感知大模型。?

基于自動駕駛語義感知大模型,毫末還會通過構(gòu)建駕駛語言來描述駕駛環(huán)境和駕駛意圖,再結(jié)合導(dǎo)航引導(dǎo)信息和自車歷史動作,借助LLM大語言模型做出駕駛決策。?

方向上,毫末正在沿著與特斯拉、Wayve同樣的方向,讓自動駕駛大模型擁有更多的學(xué)習(xí)進(jìn)化途徑,這相當(dāng)于在建立自己的世界模型。?

這一過程中,大模型的進(jìn)化發(fā)生在多個方面:?

早期,Transformer是用于自然語言處理(NLP)的大模型,主要應(yīng)用于文本。之后Vision Transformer 又稱ViT出現(xiàn),主要用于圖像。?

直到后來,又出現(xiàn)Swin transformer,一種由微軟提出的視覺領(lǐng)域的Transformer大模型。?

在ViT圖像大模型的基礎(chǔ)上,Swin transformer進(jìn)一步對圖片進(jìn)行圖像分割,可以用于處理多視覺任務(wù),更好地完成CV領(lǐng)域的目標(biāo)檢測和語義分割任務(wù)。?

過去兩年,毫末的視覺大模型的進(jìn)化,與行業(yè)趨勢一致,其CV Backbone先是從CNN模型全面切換到ViT,并又在今年全面升級到Swin transformer。?

訓(xùn)練大模型方面,行業(yè)早期主要基于人工標(biāo)注的單幀圖片有監(jiān)督,后來結(jié)合4D自動標(biāo)注,再進(jìn)一步升級到基于自動標(biāo)注的4D Clip的有監(jiān)督訓(xùn)練,到今天基于大規(guī)模數(shù)據(jù)的自監(jiān)督學(xué)習(xí)訓(xùn)練,從而可以輕松吃下上百億幀圖片。?

在毫末最新的模型中,已經(jīng)可以采用視頻生成的方式,通過預(yù)測生成視頻下一幀的方式來構(gòu)建4D表征空間,使CV Backbone學(xué)到三維的幾何結(jié)構(gòu)、圖片紋理、時序信息等全面的物理世界信息。?

以上這些動作,主要解決了大模型領(lǐng)域的數(shù)據(jù)采集和標(biāo)注效率低、泛化能力差等問題,解決的其他問題還包括:?

·怎么做到高效、低成本地從上百億的數(shù)據(jù)中,篩選出幾萬個有效數(shù)據(jù);

·怎么做到從閉集到開集,可以標(biāo)注任意物體;

·如何高效的場景遷移;

·怎樣讓駕駛行為具備可解釋性等等。

毫末將自動駕駛分為三個時代,其中,自動駕駛3.0時代需要1億公里。目前,用戶輔助駕駛行駛里程已經(jīng)達(dá)到8700多萬公里,預(yù)計到年底可達(dá)到這一目標(biāo)。?

總體上,這屆AI DAY為毫末邁過自動駕駛3.0時代提供了更多彈藥支持,從云端到車端做了充分準(zhǔn)備。上有愈發(fā)聰明的自動駕駛大模型,下有性價比十足的智駕方案,毫末已經(jīng)做好了明年智駕的卡位。?

       原文標(biāo)題 : 毫末AI DAY的智駕彈藥:上有「世界模型」,下有3000元方案

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號