日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

知薦 | 計算機行業(yè)視覺在自動駕駛中的應用及地位

 ZHAOHUI 2019-09-03



核心觀點


視覺傳感器性能將大幅進步,產業(yè)鏈占比有望持續(xù)增長

ADAS 研發(fā)迎來關鍵節(jié)點,領先車企規(guī)劃 2020 年~2022 年 L3 級別車 型落地。傳感器中視覺的性能在下一代迎來飛躍,未來 3~5 年量產的前視 傳感器中,單目測距達到 200 米~300 米,像素在 2Mp 到 8Mp 之間,性能 與長距離毫米波雷達差距大幅縮小,同時具備成本和圖像識別等方面的優(yōu) 勢。
基于純視覺的 L4 級方案已路測成功(百度 Apollo Lite)。綜合性能、 成本、美觀與實際路測考量,中下游廠商或調整方案結構側重視覺,看好視 覺在產業(yè)鏈中比重持續(xù)增長。

視覺處理硬件為基礎,軟件作用持續(xù)提升車

車規(guī)級高算力硬件的發(fā)展(英偉達 Drive Xavier、特斯拉 FSD、Mobileye EyeQ5 等)帶動深度學習算法落地,有望超車傳統(tǒng)計算機視覺算法。同時,車規(guī)級軟件門檻更高,研發(fā)周期更長,部分消費級軟件企業(yè)布局車載領域存 在挑戰(zhàn)。

車載視覺方案的商業(yè)化,關注軟件的通用性和上下游競合關系 

通車體視覺涉及車體控制層,封閉性較強,算法在硬件層面的移植難度較大。車艙視覺通用性較強,通常兼容多種芯片結構與操作系統(tǒng),車艙視覺 軟件公司對上游議價能力相對更高。同時,頭部 Tier 1 多數(shù)與專業(yè)算法公 司深度合作,長期看,有自行研發(fā)的趨勢,一二級供應商界限逐漸模糊化。

國內算法企業(yè)機遇與挑戰(zhàn)并存

大部分單一算法企業(yè)在產業(yè)鏈中相對上下游(尤其是芯片、載體平臺、計算平臺和車商/Tier 1 供應商)話語權較弱,汽車工業(yè)技術標準的經驗不 足可能會放大議價能力的弱勢。
商業(yè)化應用尚未大規(guī)模落地,前沿技術理念 的同步程度較高。相關機遇包括拓展軟件的通用性以及發(fā)展新興算法領域(如深度學習)等。

要點趨勢

>> ADAS研發(fā)迎來關鍵節(jié)點,領先車企規(guī)劃2020年~2022年L3級別車型落地。傳感器中視覺的性能在下一代迎來飛躍,未來3~5年量產的前視傳感器中, 單目測距達到200米~300米,像素在2Mp到8Mp之間。
在成本占優(yōu)的前提下 性能與長距離毫米波雷達差距大幅縮小,同時具備成本和圖像識別等方面的 優(yōu)勢。基于純視覺的L4級方案已路測成功(百度Apollo Lite)。綜合性能、 成本、美觀與實際路測的考量,中下游廠商或調整方案結構側重視覺,看好視覺在產業(yè)鏈中比重的持續(xù)提升。
>> 視覺處理硬件為發(fā)展基礎,軟件作用逐步提升。
>>車規(guī)級高算力硬件的發(fā)展(英偉達Drive Xavier、特斯拉FSD、Mobileye EyeQ5等)帶動深度學習算法落地,有望超車傳統(tǒng)計算機視覺算法。細分方 案中,雙目方案專用芯片驅動雙目軟件發(fā)展,短期內,測距與鏡頭一致性限 制其空間,仍以單目方案為主流。
>>車規(guī)標準要求包括高分辨率、寬動態(tài)、強光抑制,對工作壽命、承受溫度范 圍等要求高于消費級。鏡頭表面鍍膜要做特殊工藝梳理。ISO 26262定義了 汽車安全完整性等級(ASIL),ASIL-D級要求10億小時運算預期出現(xiàn)的失 敗次數(shù)少于10次。車規(guī)級嚴格要求意味著車載軟件研發(fā)周期更長,門檻更高,部分消費級軟硬件企業(yè)布局車載領域存在挑戰(zhàn)。
>>視覺方案的商業(yè)化落地關鍵看軟件的通用性和上下游競合關系。
>>通用性方面,車體視覺涉及車體控制層,封閉性較強,算法在硬件層面的移 植難度較大。車艙視覺通用性較強,通常兼容多種芯片結構與操作系統(tǒng)。商 業(yè)化層面車艙視覺軟件公司對上游議價能力相對更高。
>>Tier 1(一級供應商)與算法廠商(二級供應商)存在競合關系。頭部Tier 1受同業(yè)競爭壓力,多數(shù)與算法公司深度綁定縮短適配周期。長期看,為爭 取議價空間,部分Tier 1的算法來源由合作轉自研,部分算法企業(yè)直接與整車廠合作開發(fā),一二級供應商存在界限模糊化趨勢。
>>大部分單一算法企業(yè)在產業(yè)鏈中相對上下游(尤其是芯片、載體平臺、計算 平臺和車商/Tier 1供應商)話語權較弱,汽車工業(yè)標準的技術經驗不足可能 會放大議價能力的弱勢。存在的機遇包括拓展軟件的通用性與兼容性、發(fā)展,新興算法領域(如深度學習等)以及把握下游的商業(yè)化落地等。

ADAS的分類、構成與發(fā)展

按照系統(tǒng)功能劃分,ADAS可以為主動與被動安全系統(tǒng)。被動安全系統(tǒng)負責預警,主動安全系統(tǒng)負責在特定情況下介入控制。
L1級車對應的輔助駕駛功能互相獨立,包括ACC、LKA等。L2級車在L1級的基礎上,對個體功能進行集成,完成持續(xù)協(xié)作的駕駛任務,包括TJA等。

ADAS技術架構及產業(yè)鏈

技術架構
ADAS技術架構分為感知層(包含傳感器),決策層(包含算法、中央處理器、處理芯片等),執(zhí)行層與互聯(lián)層。感知層的作用為收集及預處理周圍環(huán)境的信息,決策層對收集的數(shù)據(jù)整合、分析與判斷,執(zhí)行層根據(jù)判斷結果做出實時反應。
ADAS感知層的主流傳感技術包括視覺、電磁波雷達(毫米波雷達和激光雷達為主)及超聲波雷達。
ADAS落地規(guī)劃

從多數(shù)領先整車廠的推進計劃看,L3級別在2020~2022年落地,L4級別車型在2020年后落地。

自動駕駛市場較為分散,各車企的落地策略不同。奔馳、奧迪等采用從L0至L5級別相對穩(wěn)妥的漸進式研發(fā);福特、沃爾沃等采取策略更加激進,跳過L3級推出L4級。
科技公司有軟件優(yōu)勢但是缺乏硬件基礎,在車體制造與生產方面存在局限性,通常與整車廠合作開發(fā),形成互補(如:Waymo與塔塔汽車的捷豹和菲亞特克萊斯勒在無人駕駛汽車方面建立了牢固的合作關系,百度與北汽、長安、奇瑞、威馬等車企達成戰(zhàn)略合作。

傳感器在ADAS中的地位

傳感器在ADAS中的主要作用為采集路面信息,是ADAS系統(tǒng)的重要組成部分。經由傳感器的道路環(huán)境數(shù)據(jù)采集后,轉換成數(shù)字信號傳至決策層分析處理,最后由執(zhí)行器輸出控制信號。傳感器是ADAS架構感知層中重要的輸入環(huán)節(jié)。

傳感器

車載傳感器分為視覺、毫米波雷達、激光雷達等技術路徑。視覺傳感器因原理上與雷達形成良好的互補。以目前趨勢,雷達+視覺的合成方案為主流,未來傳感器發(fā)展趨勢為集成與處理優(yōu)化。
路徑比較
ADAS感知層主流傳感技術包括視覺、雷達及超聲波雷達。傳感器包括前視、環(huán)視、車內攝像頭,毫米波雷達和超聲波雷達等。
本質上,電磁波雷達與超聲波雷達都是利用回波成像來構顯被探測物體。
超聲波雷達超聲波散射角大,在空氣中傳播損耗也大,適合泊車雷達。
毫米波雷達可全天候工作,抗干擾能力較強,對煙霧灰塵具有更好的穿透性,受天氣影響小,但是精確度相對薄弱。車用毫米波雷達包括24GHz和77GHz毫米波雷達。
激光雷達工作在紅外和可見光波段,用發(fā)射激光束探測目標的位置、速度等特征量,實現(xiàn)精準建模,且探測距離遠。缺點是易受到自然光或是熱輻射的影響。
視覺方案技術相對成熟,優(yōu)勢在于成本低廉,支持基于深度學習的類型識別,但易受天氣、環(huán)境光等因素影響,且無法有效獲得三維信息。
2018年國內新車型中,多數(shù)已裝配環(huán)視系統(tǒng)。視覺和雷達的應用上,有不同側重:一汽奔騰SENIAR9、吉利博瑞GE等車型用前視攝像頭完成主要ACC、AEB、LDW等功能。奔馳GLC、長安CS75等車型靠77GHz雷達實現(xiàn)ACC,靠前視攝像頭實現(xiàn)LDW。
從傳感器頂尖性能來看,量產的這一代單目攝像頭像素在1Mp到2Mp之間,探測距離約100~120米。雙目攝像頭探測距離約50~70米。
下一代視覺傳感器測距方面大幅有望提升,鑒于自動駕駛升級車型對于攝像頭的依賴程度,預計在下一代投產后將放量。
大陸的MFC500系列分辨率最高800萬像素,探測距離300米;博世也將推出像素200萬單目攝像頭,探測距離大于200米。由于單目方案測距與分辨率緊密掛鉤,像素規(guī)格的進步對于單目性能有顯著的提升作用。
成本對比
攝像頭與毫米波雷達成本攝像頭單價一般在600元以下,其中單目攝像頭單價區(qū)間大致在150~600元左右,環(huán)視攝像頭區(qū)間在70~500元左右。
毫米波雷達市場中,近程雷達單價在300~400元左右,遠程雷達在800~1200元左右。
對于ACC、AEB等關鍵L1、L2級功能,需要配備單目攝像頭或者遠程雷達,單價上攝像頭占優(yōu)。
激光雷達成本對于單價上萬的激光雷達,初步判斷降價周期或已開啟,集成商已開始批量采購。Veoneer在2018年從一家全球性的OEM獲得第一筆大批量商業(yè)化激光雷達訂單。
近日,法雷奧激光雷達贏得了來自全球四大主要汽車集團的總額5億歐元(5.64億美元)的訂單,可能帶來總值10到15億歐元的長期業(yè)務,生命周期延續(xù)至2024年~2025年
據(jù)AutomotiveNews,法雷奧北美技術總監(jiān)JamesSchwyn預計奧迪A8裝配的ValeoSCALA之后,下兩代產品將實現(xiàn)大幅降價;業(yè)內人士預判在激光雷達單價降至1750元以下時將會大面積投產。
實用性對比
外形與重量傳感器的實用意義是購車人群的重要考慮因素,包含其外觀、重量與風阻。
從重量的角度,長距雷達的重量約為單目攝像頭的1.5倍左右,短距雷達與單目的重量相當。
風阻視覺傳感器在空氣阻力影響方面占絕對優(yōu)勢。攝像頭體積小,且部分可以置于車內,不影響成像。前視視覺攝像頭一般置于車內后視鏡上方。側向攝像頭體積小,迎風面積幾乎可以忽略不計。
奧迪電動車e-tron配備新一代虛擬后視鏡(圖片詳見第28頁),用視覺再一次完成突破,省去實體后視鏡并用攝像頭構成的虛擬后視鏡替代,將整車風阻由0.28減至0.27(相當于高速環(huán)境下每小時多行駛5千米),同時把車寬減少了15厘米。
長距雷達屬于外置型,一般安置于車身對車的整體風阻系數(shù)存在影響。
視覺傳感器的地位
視覺傳感器在ADAS升級中需求彈性小,占有重要地位。從自動駕駛方面,前視攝像頭性能在下一代與遠距雷達處于同一水平,是性價比更高的選擇。單目攝像頭占據(jù)物體識別方面的優(yōu)勢,彌補毫米波雷達精度低的缺點。
從駕駛員體驗方面,視覺傳感器可以檢測駕駛員狀態(tài),提高安全性。如果虛擬后視鏡普京,可以有效減少風阻。同時內嵌式的攝像頭相比于雷達,不影響車體美觀性。
基于視覺傳感器對高規(guī)格車型的必要性和對駕駛安全性的意義,根據(jù)上文估算,L4/L5級車型裝配攝像頭數(shù)將升至9~10個,數(shù)量在現(xiàn)有L2車型基礎上翻倍。

視覺算法在ADAS中的地位

基于硬件的車載視覺算法在ADAS產業(yè)鏈中地位的重要性逐漸提升,前視方案等面臨軟硬件的升級,新興視覺方案(虛擬后視鏡等)提升安全性與駕駛體驗。車規(guī)要求成為車載軟件的主要壁壘之一,消費級軟件企業(yè)在車載領域布局具有一定難度。
計算機視覺
計算機視覺(ComputerVision)是人工智能的一個分支,起源于20世紀80年代的神經網(wǎng)絡技術,通過使用光學系統(tǒng)和圖像處理工具等來模擬人的視覺能力捕捉和處理場景的三維信息,理解并通過指揮特定的裝置執(zhí)行決策。
計算機視覺的工作流程包含四個模塊:檢測、分類、跟蹤與語義分割。具體為成像設備首先捕獲圖像,然后對每個圖像進行預處理,提取特征后輸入到分類模型中。
計算機視覺發(fā)展現(xiàn)階段,對于人工智能的應用取決于具體落地板塊。遠期,計算機視覺需要廣泛應用人工智能。在我國整個AI市場各板塊中,計算機視覺的融資活動最為活躍,是綜合政策扶持、市場潛力與投資者信心的反應。
車載ADAS視覺
車載視覺的源頭是計算機視覺,遵循圖像輸入、預處理、特征提取、特征分類、匹配、完成識別幾個步驟。
預處理包括成幀、顏色調整、白平衡、對比度均衡、圖像扭正等工作;特征提取在預處理的基礎上,提取出圖像中的特征點;目標識別是基于特征數(shù)據(jù)的輸出,對圖像中的物體進行識別分類——人、車、交通標志等,運用到機器學習、神經網(wǎng)絡的算法。
視覺技術上主要存在兩個壁壘:特征提?。捎锰卣骱芏啵┡c預處理(常常通過寬動態(tài)、強光抑制、降噪等技術保證數(shù)據(jù)源的質量)。
場景與用途存在相互交叉?zhèn)鹘y(tǒng)汽車電子控制系統(tǒng)中,傳感器經處理后的數(shù)字信號傳導至對應ECU(電子控制單元),不同ECU對應不同系統(tǒng)。
自動駕駛時代的汽車電子控制系統(tǒng)中信號傳至MDC多域控制器,即通過一塊ECU對不同傳感器信號進行分析和處理,再由執(zhí)行機構(電子閥門、執(zhí)行馬達等)發(fā)送指令以控制車輛的關鍵部件(發(fā)動機等)完成控制/轉向等功能,或向車載信息系統(tǒng)(In-VehicleInfotainment)和HMI(人機交互界面)發(fā)送指令。
車載視覺從廣義上分為兩種應用場景:

由機器到機器,指代由機器獲取信息反饋至駕駛員的應用場景,在智能系統(tǒng)控制下完成車道保持、超車并道、交通標識識別等功能,無需人為操控或介入。

由機器到人,通過機器與人的交互,增強駕駛體驗或在特定情況下完成駕駛任務。
機器-機器和機器-人為應用場景的分類,用途可能存在交叉,即同一功能可能既需要向機器傳達指令,也需要向人傳達預警以確保在必要時干預。
下文分析的場景與性能方案不完全對應,存在交叉,我們取主要對應關系進行分析。
1)機器-機器(MachinetoMachine)
機器-機器場景中的視覺方案包含前視方案與環(huán)視方案。
前視視覺方案前視方案通過高清攝像頭采集圖像數(shù)據(jù),然后從圖像數(shù)據(jù)上得到距離信息,可細分為單目與雙目方案。
單目方案傳感器為一個單目攝像頭,通常內嵌于車內后視鏡;其算法原理為先識別物體,后根據(jù)圖像大小測距。
雙目方案傳感器為一個雙目攝像頭,通常置于車內后視鏡上方擋風玻璃處;其算法原理為通過視差直接測距,類似于人眼的感知。
環(huán)視視覺方案根據(jù)德州儀器的環(huán)視系統(tǒng)報告,環(huán)視方案通過4~6個廣角攝像頭采集圖像數(shù)據(jù),拼接后合成360度的全景俯視圖,現(xiàn)階段多用于可視化系統(tǒng),該系統(tǒng)提供車身周圍實時的俯視圖像,用全景圖像消除車身周圍的視野盲區(qū),提供相對方位與距離信息。
用途與性能差異前視方案普遍用于車體縱向的識別、測距等,如前車碰撞預警、行人碰撞預警、緊急制動剎車和自適應巡航等。
環(huán)視方案普遍用于自主泊車,以及輔助橫向的預警、控制,包括車道偏離預警、車道保持功能等。性能上,環(huán)視攝像頭分辨率相對更低,視場角廣。前視攝像頭分辨率高,測距長,視場角相對更小。
2)機器-人(MachinetoHuman)
機器-人場景的具體應用包括車內攝像頭、虛擬后視鏡等。
車內攝像頭車內攝像頭用于車內的身份驗證、疲勞檢測、手勢識別等,放置方位因方案不同而不同。(2019斯巴魯森林人將攝像頭置于中控屏上方)。
2019年重新設計的寶馬5系將攝像頭放置于儀表盤組件。凱迪拉克2018高配CT6中的使用SuperCruise系統(tǒng),通過位于車輛轉向柱頂端的微型攝像頭與方向盤燈帶兩旁的紅外傳感器追蹤駕駛員頭部特征。
虛擬后視鏡
虛擬后視鏡由小型攝像頭取代后視鏡。奧迪E-tron的方案中,獲取的圖像呈現(xiàn)在儀表板和車門之間的OLED屏幕上。
3.機器-機器
1)前視方案
前視方案分為單目和雙目。單目系統(tǒng)原理是基于識別的準確估算。雙目系統(tǒng)原理是基于對目標物體距離感知的三角測量,而非估算。
單目方案單目方案算法
單目攝像頭遵循圖像輸入、預處理、特征提取、特征分類、匹配、完成識別幾個步驟,其測距原理是先匹配識別后估算距離:通過圖像匹配識別出目標類別,隨后根據(jù)圖像大小估算距離。
單目測距的算法包括傳統(tǒng)機器學習算法與深度學習中的卷積神經網(wǎng)絡(CNN)。
傳統(tǒng)機器學習算法中,通過圖像特征描述子SIFT(Scale-InvariantFeatureTransform)、SURF(Speeded-UpRobustFeatures)、BRIEF(BinaryRobustIndependentElementaryFeatures)等進行特征點提取和匹配,可用特征很多,包括角點、邊緣點、暗區(qū)的亮點及亮區(qū)的暗點等。
CNN主要針對圖像處理,基本原理是通過多層過濾得到越來越抽象的圖像特征,每個濾波器(由卷積核組成)學習并進行特征值提取,無需人工設計參數(shù)提取特征。
兩種算法的本質區(qū)別在于手動提取特征與機器學習特征,因此相比較而言,傳統(tǒng)算法特征提取效率更低,魯棒性不及深度學習算法。
單目芯片
現(xiàn)階段可用于傳統(tǒng)視覺算法的處理器有NXP的S32V234、MPC567xK,TI的TDA2x、TDA3x,瑞薩的R-CarV3M,ADI的BF60x等,其中TITDA2x、NXPS32V234等配備視覺加速器。
適用于傳統(tǒng)算法疊加深度學習算法且符合車規(guī)級別的SoC不多,2021年前量產的芯片包括Mobileye的EyeQ,特斯拉的FSD(今年4月宣布),英偉達的DRIVEPX等。
EyeQ芯片的能耗在上述對比中最低,但是是唯一一款基于單一芯片的參數(shù)。英偉達的DrivePX,DriveXavier,Pegasus以及特斯拉的FSD均為平臺。
疊加深度學習算法的高性能芯片多數(shù)功耗都較高。硬件的局限性促成了深度學習在落地應用中的輕量化。
雙目方案雙目算法
雙目攝像頭的測距通過視差直接測距,類似于人眼的運作方式。雙目測距從視差的大小倒推出物體的距離,視差越大,距離越近。
雙目芯片
在車規(guī)級的FPGA,L1-L3級別中賽靈思占據(jù)領先地位。隨著雙目的普及化,全球兩大處理器廠家推出了專用雙目設計的處理器(瑞薩的R-CARV3H和NXP的S32V3系列),安霸也相繼推出自動駕駛芯片CV1與CV2。
單雙目方案對比優(yōu)劣勢
單目方案核心是樣本量的局限性,對非常規(guī)物體、被遮擋物體容易出現(xiàn)漏檢;雙目方案核心是立體匹配和一致性,受限于硬件。雙目方案計算量更大,對芯片要求更高。同時,攝像機的同步性和機體的穩(wěn)定性很重要。成熟的雙目方案需要經過振蕩檢驗,剩余的差異由算法調教。
測距
以目前行業(yè)水準來看,主流方案測距上單目優(yōu)于雙目。遠期來看,由于單目方案測距與分辨率緊密掛鉤,攝像頭像素提升對于單目性能有顯著的提升作用,雙目產品受制于同步性等因素,難以超過單目。
目前單目方案的探測距離在50~100米左右,頂尖性能達到200米左右,幀數(shù)在30幀左右。目前雙目方案的探測距離在50~70米左右,頂尖性能達到120米左右,每秒幀數(shù)在30幀左右。
2)環(huán)視方案
環(huán)視攝像頭方案中,通常將2個廣角攝像頭置于左右兩側外后視鏡的后側或下方,1個廣角攝像頭置于后備箱,1個置于引擎蓋,拼接得到360度環(huán)視。應用中,模擬攝像頭與高清數(shù)字攝像頭都有,模擬攝像頭性價比更高。
環(huán)視方案算法
環(huán)視方案通常經過攝像頭標定-配準的流程。標定階段,內參在出廠時即可得到,外參需要進行標定,得到攝像頭安裝的高度和角度。
拼接階段需要配準,為了避免盲點、模糊及其他景深產生的問題。一般可以基于區(qū)域(FFT變換)或基于特征(SIFT,SURF等)。
魚眼相機需要額外的畸變矯正再進行拼接,配準后的拼接成果優(yōu)化顯著。
環(huán)視方案芯片
恩智浦S32V234、瑞薩R-CarV3M、TDA3x等SoC兼顧前視攝像頭與環(huán)視攝像頭。專門針對環(huán)視方案設計的有恩智浦的i.MX6和i.MX8系列等。
ISP中,Omnivision的OV490,ARM的Mali-C71等都支持全景環(huán)視。
4.機器-人
1)駕駛員監(jiān)控(DMS)駕駛員監(jiān)控系統(tǒng)的功能主要針對駕駛員的疲勞、分神、不規(guī)范駕駛等危險情況進行一層或多層預警,要求在全部工況環(huán)境下(包含暗光、夜晚、逆光等)工作,且不受駕駛員衣著的妨礙。
DMS算法
DMS的視覺算法基于深度學習。以偉世通旗下AllGoEmbedded系統(tǒng)為例,其DMS的基本流程如下:
臉部檢測:將其歸為物體識別與分類問題,通過訓練深度神經網(wǎng)絡設計一個魯棒性好的臉部檢測器。
頭部特征:由三個姿態(tài)角構成,基于CNN設計頭部跟蹤系統(tǒng),以圖像中臉部區(qū)域為輸入,以三維姿態(tài)角為輸出。
眼神檢測:綜合眼神檢測網(wǎng)絡與頭部姿態(tài)角度輸出。
眨眼檢測:包括眨眼信息(速率與時差)和眼部信息(開與合)。眼部信息為二分類問題,需要神經網(wǎng)絡較?。徽Q坌畔⑿枰治鲞^去數(shù)幀。
DMS芯片
目前車規(guī)級的芯片包括高通的驍龍820A、瑞薩R-CarH3、英特爾的IntelAtom和德州儀器的JacintoDRAx等。
高通驍龍820A汽車級SoC于2016年發(fā)布并搭載于大眾汽車。東軟集團已經與高通合作,利用HVX視覺引擎提供基于驍龍820A的認知視覺解決方案。國內頭部算法商湯等針對車艙視覺搭配高通驍龍820A芯片平臺。
除去驍龍,其余芯片方案也在研發(fā)中。恩智浦2019年6月宣布與Momenta合作,結合低功耗架構的NXPS32V2和Momenta的深度學習軟件,研發(fā)DMS。
DMS攝像頭與解決方案盤點
部分Tier1已推出DMS完整解決方案,包括大陸、法雷奧與維寧兒,基本覆蓋目標識別、人臉識別與疲勞檢測的功能,且采用紅外攝像頭,其成像品質不受夜間、逆光等高挑戰(zhàn)性光照環(huán)境的影響。
部分軟件廠商與電子供應商/Tier1合作開發(fā)解決方案,供應至整車廠前裝市場。
2)虛擬后視鏡
虛擬后視鏡方案處于起步階段,將車門內側的OLED顯示屏與車外小型高清攝像頭連接。代表車型為AudiE-tron。流媒體后視鏡針對后視鏡盲區(qū)設計,用一個高清外置后視攝像頭對車體候方拍攝并呈現(xiàn)在后視鏡上。代表車型為凱迪拉克CT6。
3)HUD
HUD可分為CHUD(CombinerHUD組合型)和WHUD(WindshieldHUD擋風玻璃HUD)。CHUD顯示屏為放置于儀表上方的一塊透明樹脂玻璃,根據(jù)成像條件對這塊玻璃進行特殊處理。WHUD顯示屏直接使用汽車的擋風玻璃,顯示效果更為一體化。
新興的AR-HUD在駕駛員視野范圍內疊加顯示駕駛輔助系統(tǒng)的狀態(tài),因此與環(huán)境傳感器、地圖資料等有緊密聯(lián)系。

車規(guī)要求

車規(guī)級軟硬件的要求較消費級嚴格,攝像頭在低照度下的性能、動態(tài)范圍、近紅外線(NIR)敏感性、在攝氏-40到+105℃寬溫度范圍下的圖像品質、長期可靠性、高速下的穩(wěn)定性、圖像資料完整性和穩(wěn)健性等方面都需要保證。因此汽車產業(yè)鏈門檻較高,需要較長的研發(fā)周期,具有一定的技術壁壘。對于消費級軟件企業(yè),車規(guī)級軟件的研發(fā)是新的挑戰(zhàn)。
1)AEC-Q100、ISO26262認證 AEC-Q100依據(jù)國際汽車電子協(xié)會(AEC)作為車規(guī)驗證標準,包括AEC-Q100(集成電路IC)、AEC-Q101(離散組件)、AEC-Q102(離散光電LED)、AEC-Q104(多芯片組件)、AEC-Q200(被動組件)。
AEC-Q100包括可靠性驗證,分為GroupA(加速環(huán)境應力實驗)、GroupB(加速工作壽命模擬)、GroupC(封裝完整性測試)、GroupE(電性驗證測試)、GroupG(空腔/密封型封裝完整性測試)。同時還包括設計驗證,對設計階段的失效模式與影響分析評估,成品階段的特性驗證以及故障涵蓋率計算。
ISO26262應用于安全相關系統(tǒng),定義了各種汽車安全完整性等級(ASIL)——A,B,C和D(A為最低等級,D為最高等級),將所需的流程、開發(fā)工作和產品內功能安全機制映射到可接受的風險等級。
ASIL等級劃分中,失敗頻率由FIT(Failureintime)衡量,指10億小時運算預期出現(xiàn)的失敗頻數(shù)。對于視覺系統(tǒng)來說,一般要求ASILB級或以上,即10億小時的時間內最多失誤100次。SGFM(single-pointfaultmetric)與LFM(latentfault
metric)指的分別是測試對象在單點失誤和隱藏失誤方面的魯棒性。
鏡頭組、傳感器、攝像頭要求
車規(guī)級傳感器的鏡頭組有特殊要求,鏡頭表面鍍膜要做特殊工藝梳理,使其不沾水、油、塵埃等。車規(guī)級傳感器普遍需要做到高分辨率、強光抑制、寬動態(tài)。
前視攝像頭采用百萬像素級別的高清圖像傳感芯片,要求具有HDR(寬動態(tài)范圍圖像)性能、微光性能;可消除高頻LED閃爍。
環(huán)視攝像頭對像素、動態(tài)要求相對更低,但是要求功耗低。一般要求標清(VGA分辨率),靈活。提供色彩恢復和校正、銳化、灰度、鏡頭陰影校正、自動白平衡和自動曝光等復雜處理。

車載前視視覺方案市場空間

在各類視覺方案中,前視方案為自動駕駛實現(xiàn)的核心。我們現(xiàn)在對國內的前視視覺方案市場進行測算,測算對象為ADAS的前視視覺方案終端成品,包含前裝與后裝市場。
汽車產量我們采用中汽協(xié)對2019年汽車產量的預估(2810萬輛)及普華永道調研結果。
滲透率方面,根據(jù)高工智能,我國2018年新車L1滲透率約為14%,L2滲透率為5%。根據(jù)中汽協(xié)預估的2018年2781萬量產量推算出該年L1與L2分別的產量。參考工信部設立目標,2020年L2以下級別搭載率接近30%。根據(jù)產量及滲透率測算,L1級汽車產量在2021年達到700萬輛,L2級達到420萬量。
根據(jù)中科慧眼、Minieye等官方采訪,目前市場上,L2級車的雙目前裝系統(tǒng)價格約為1000元。根據(jù)Mobileye后裝價格和國內廠商的成本優(yōu)勢,估算單目后裝價格約3000元,MinieyeCEO訪談也驗證了類似區(qū)間。從成本角度比雙目價格低。根據(jù)中科慧眼、Minieye已有產品,更新一代均有小幅降價。結合大趨勢我們假設價格呈現(xiàn)逐年遞減的趨勢。
根據(jù)分拆后的價格、數(shù)量與占比,我們測算國內前視方案市場規(guī)模如下:
根據(jù)我們預測,全國前視視覺方案市場在2020年達到182億元,2021年達到242億元。CAGR約35%。根據(jù)YoleDevelopment測算,全世界前視ADAS攝像頭的市場規(guī)模到2021年約達到35~40億美元之間,2012年至2021年的CAGR約為27.3%。

部分代表性公司技術方案概覽

1)Mobileye
Mobileye產品為軟硬件結合的單目前視感知方案。其視覺方案支持功能包括AEB、LDW、FCW、LKA等,全部由一顆EyeQ處理器完成。其算法從傳統(tǒng)計算機視覺成功過渡至深度學習算法,由第五代EyeQ芯片承載。
2)百度
百度的出發(fā)點是生態(tài)建立,其Apollo平臺包括云端平臺、軟件平臺、參考硬件平臺以及參考車輛平臺。云端平臺包括高精地圖、DuerOS操作系統(tǒng)(百度研發(fā)的自然對話式人工智能操作系統(tǒng))等,軟件平臺包括感知、策劃、端到端、HMI等,參考硬件平臺包括傳感器、IMU等,參考車輛平臺包括車聯(lián)網(wǎng)。
今年4月,百度公布了其自動駕駛純視覺城市道路閉環(huán)解決方案百度ApolloLite,為城市道路L4級感知方案。Apollo支持對10路攝像頭、200幀/秒數(shù)據(jù)量的并行處理,單視覺鏈路最高丟幀率能夠控制在5‰以下,前向障礙物的穩(wěn)定檢測視距達到240米。
ApolloLite是純視覺方案,繞過了旋轉式激光雷達,經過半年路測迭代,在閉環(huán)自動駕駛場景下表現(xiàn)優(yōu)異。
3)MMSolutions
MMSolutions從手機與平板電腦的影像解決方案出發(fā),延申出車載圖像處理算法開發(fā)、優(yōu)化和集成的產品。
AutoCDK是MMSolutions研發(fā)的多平臺一站式方案,
MMSolutions通過與高通、TI、瑞薩等公司的長期深度合作,拓展其CDK普適性,目前支持環(huán)視、前視、后視等多種視覺場景,同時支持多平臺,包括Linux,
QNX,DSPBios,GreenHills,FreeRTOS,TI和瑞薩等。瑞薩基于AutoCDK推出的ISP解決方案可以適應工業(yè)級水準及惡劣的駕駛環(huán)境,解決了LED閃爍問題并適應高動態(tài)的環(huán)境。
4)商湯
商湯發(fā)揮其在移動端人臉識別的技術積累,推出SenseDriveDMS系統(tǒng)。SenseDriveDMS經測試,在真實環(huán)境測試下對駕駛員的吸煙、閉眼及打哈欠等分心行為的識別準確率高達98%以上,且能夠適應不同光照條件以及各種光照角度以及駕駛員的面部角度。
SenseDrive通過普通的紅外攝像機加AI驅動的DMS軟件即可實現(xiàn),通過對壓縮深度模型(CDM)及深度學習框架(PPL)的異構優(yōu)化,SenseDriveDMS駕駛員監(jiān)控系統(tǒng)響應速度大幅領先同級別產品。
據(jù)騰訊網(wǎng),今年4月商湯與偉世通達成合作協(xié)議,將商湯的DMS技術與偉世通的SmartCore和DriveCore相結合,落地在即。
5)曠視
曠視在CES2019展示了基于高通驍龍660平臺的車載視覺解決方案,包含人臉識別賬戶切換、人臉解鎖與啟動、駕駛員疲勞檢測、手勢切歌等多種功能,并且有效抑制強光、逆光等。根據(jù)新華網(wǎng)關于CES2018的報道,目前曠視已和電動汽車品牌蔚來汽車達成合作。

產業(yè)鏈格局

視覺產業(yè)鏈上游主要由鏡頭模組供應商、芯片與算法供應商組成;中游Tier1負責傳感器的模組、器件、芯片、算法的整合與集成;下游為整車制造廠商(OEM)。
1.上游
車載攝像頭主要由鏡頭組、CMOS芯片、晶圓、模組及ISP處理器構成。
1)鏡頭組與CMOS
鏡頭組鏡頭組作為核心元件,其壁壘在于焦距、視場角、光圈、畸變、相對照度、分辨率等。由于室外環(huán)境嚴苛,車載鏡頭在形狀上要有良好的熱穩(wěn)定性,所以鏡頭主要使用玻璃而非塑膠材質。
上游行業(yè)整體處于成熟期。鏡頭組部分主要廠商包括LGInnotek、舜宇光學、Samco等,大多是傳統(tǒng)的相機鏡頭生產商。
該行業(yè)集中度相對較高。根據(jù)YoleDevelopment,全球CR4約為40%~50%左右。
CMOS
CMOS和CCD是攝像頭的兩種感光元件。CMOS相對于CCD的重要優(yōu)勢為幀數(shù)高且動態(tài)范圍高,固在車載攝像頭領域應用十分廣泛。全球車載CMOS傳感器廠商主要來自美國和日韓企業(yè)(如Pixelplus、三星、索尼等)。
2)算法芯片
車載算法芯片中,F(xiàn)PGA(可編輯門列陣)屬于相對熱門的方案。GPU和FPGA并行處理能力強,因此在圖像視覺處理中,尤其在使用深度學習算法需要多個像素點同時計算,F(xiàn)PGA和GPU的并行計算能力具備更大有優(yōu)勢。
FPGA是作為專用集成電路(ASIC)領域中的一種半定制電路而出現(xiàn)的,F(xiàn)PGA可根據(jù)需求編程,適用場景更寬泛。ASIC應用場景相對局限,因其無法進行再編程。研發(fā)周期上看,ASIC屬特殊定制,需要大量時間開發(fā),但是性能與速度均高于FPGA。
芯片主要供應商包括瑞薩電子、意法半導體、飛思卡爾、亞德諾、德州儀器、恩智浦、富士通、賽靈思、英偉達等。
2.定價權分析
算法廠商為二級供應商,一二級供應商存在競合關系。頭部Tier1受同業(yè)競爭壓力,多數(shù)與算法公司深度綁定縮短適配周期。長期看,為爭取議價空間,部分Tier1算法來源由外包轉自研,部分算法企業(yè)直接與整車廠合作開發(fā),一二級供應商存在界限模糊化趨勢。
通用性方面,車體視覺涉及車體控制層,封閉性較強,算法在硬件層面的移植難度較大。車艙視覺通用性較強,通常兼容多種芯片結構與操作系統(tǒng)。商業(yè)化層面車艙視覺軟件公司對上游議價能力相對更高。
1)軟件公司與Tier1的關系及議價權
Tier1同業(yè)競爭激烈
Tier1市場集中度較低。據(jù)ResearchInChina統(tǒng)計,大陸、博世計劃于2025年后落地L5級車的設備方案,并與法雷奧、偉世通一樣在2020年落地L3。博世與采埃孚提早兩年開始L3級的量產。
Tier1的算法來源:合作與自研共存
因同業(yè)競爭產生壓力,國際大型Tier1的視覺算法多數(shù)選擇與軟件公司合作開發(fā),以縮短適配周期。
包括大陸、ZF、博世等都有自己獨立的軟件研發(fā)部門或子公司,安波福主要通過收購軟件公司獲取核心技術,包括之前對Ottomatika、nuTonomy的收購。Valeo與百度合作,由百度提供云平臺、算法等。
Mobileye算法數(shù)據(jù)集龐大、測量精度高、誤報率低。電裝、Magna、大陸等Tier1的軟件研發(fā)與Mobileye合作。其中,Magna的合作集中于系統(tǒng)整合,大陸的合作集中于傳感器。
國內市場中,前向啟創(chuàng)與Tier1亞太機電深度綁定,獲得亞太機電戰(zhàn)略投資,由此打通渠道進入OEM市場。Maxieye與安波福建立深度合作關系共同開發(fā)。
未來趨勢深度學習算法的開源
符合安全要求的ECU/MDC必須由工業(yè)級別認證的硬件和軟件元件組成。Tier1如果需要自主開發(fā)該元器件或者從上游廠商購入,需要額外支付安全認證標準的附加值,壓低其利潤空間。如果使用具有符合安全需求的OSS,Tier1降低成本,同時降低終端售價。開源軟件的普及化會一定程度降低傳統(tǒng)軟件/算法公司的競爭力。
深度學習算法輕量化
深度學習算法復雜度較高,不太適合運行在嵌入式硬件平臺上。很多算法公司通過裁剪算法的網(wǎng)絡結構,達到模型尺寸輕量化的目的。
東軟集團旗下東軟睿馳推出的輕量化算法,可以適用目前車載的CPU,提供一些行人車輛的識別算法。極目智能的JM600V3.0方案通過編碼模式優(yōu)化、對冗余網(wǎng)絡結構的裁剪在控制精度損失的前提下將模型尺寸的輕量化。在精度損失不到1%的情況下,模型尺寸壓縮近90%,計算量降低近90%。
軟硬件合并,Tier1與Tier2界限淡化包括博世、大陸、電裝、奧托立夫在內的Tier1已開始自行研發(fā)算法。短期看,外包算法的驅動力為縮短適配周期,提升競爭力。長期看,自研算法增強Tier1對上游的議價權。電裝2018年報披露,將大幅增強軟件部門實力,將發(fā)展重心從硬件轉移。
博世為強化本土軟件能力,將在2019年在華設立軟件中心,為博世中國業(yè)務提供軟件支持,包括嵌入式軟件、基于人工智能的應用程序等。預計至2020年,該中心初期投資額超過3500萬元;至2022年計劃招募約500名軟件創(chuàng)新人才。
算法公司也存在向Tier1靠攏的趨勢,部分算法廠商跳過Tier1,或承擔Tier1的職能,成為整車廠的直接供應商。
國外算法企業(yè)中,EB(Electrobit)直接與戴姆勒、福特、大眾、通用、尼桑等整車廠合作提供算法方案,包含安全監(jiān)控、電子視野、ECU軟件方案等;同時也與德爾福等Tier1合作共同研發(fā)。
國內的創(chuàng)業(yè)公司出現(xiàn)了直接與車廠合作開發(fā)前裝市場的路徑。如Maxieye和國內主機廠北汽等共同開發(fā)項目。圖森未來先給主機廠提供解決方案,而未來更可能給國內的tier1供應商提供技術支持。
Minieye的客戶里,有些決策Minieye是Tier1的定位,提供給客戶完整的解決方案??v目科技在2013年至2015年一直屬于Tier2;從2016年起轉型為Tier1,在北京建立了自動駕駛研發(fā)中心,與主機廠交流構建完善的產品體系。
2)軟件公司與芯片公司的競合關系
算法公司與芯片公司的合作
AI算法的步驟為先訓練,后轉換模型。算法公司與芯片公司的合作存在必要性,原因在于軟硬件需要深度優(yōu)化。
軟件公司首先考慮硬件的功耗和成本,硬件算力的極限值;然后權衡神經網(wǎng)絡的層數(shù)與大小,在保證精度的情況下對網(wǎng)絡裁剪,形成一個不斷迭代的流程,最大效益得利用芯片。
之后利用一些工具來測量它的真實性能。該過程基于跟芯片平臺有非常深度的合作,以及軟件公司降低算法模型的運算量。
軟件的通用性車體視覺的兼容性不及車載視覺的兼容性。車體部分涉及到控制、車與車之間差異性更大,封閉性更強;車載軟件的通用性更好,商湯的DMSSDK可支持多硬
件平臺,包括X86、ARM等;MMSolutions的AutoCDK與全景環(huán)視解決方案和瑞薩、德州儀器等一線芯片廠商兼容,已實現(xiàn)預裝。
軟件公司造芯的動態(tài)與挑戰(zhàn)軟件解決方案企業(yè)尚未大規(guī)模進軍芯片來,主要源于自動駕駛芯片的設計和驗證難度遠超普通芯片,從流片,到車規(guī)級測試,再到最后裝車量產需要長周期與大量研發(fā)投入。
軟件公司主要有兩個原因:
雙方企業(yè)開放Knowhow的障礙:對于處于成長周期的計算機視覺行業(yè)和高技術壁壘的芯片行業(yè),開放算法或者重構計算單元非常具有挑戰(zhàn)。頭部算法公司為保護其數(shù)據(jù)與算法安全,考慮直接布局芯片。
硬件迭代速度慢:軟件定義芯片成為專家強調的趨勢。合作造芯過程中,硬件更新周期長于軟件更新周期,致使硬件配置難以有效匹配不斷迭代的軟件需求。
Mobileye開啟算法公司自研芯片的先河。2016年創(chuàng)辦的黑芝麻科技為主機廠和供應商提供端到端全棧式的軟硬件平臺解決方案,對標Mobileye同時自研視覺感知算法和自動駕駛芯片。目前黑芝麻已與上汽、一汽、比亞迪等車商及博世等Tier1達成合作。
3)車商的角色變化
傳統(tǒng)車商尋求差異化策略
主機廠傳統(tǒng)職能為關鍵零部件的開發(fā)及整車的集成工作。近年國際合資車廠主動技術升級,本土廠商在競爭壓力與政策推動下尋求差異化策略。
車企策略分化,成熟OEM主動轉型新興車企如蔚來汽車、威馬汽車、天際等由于其沒有造車經驗積累,多數(shù)選擇重量級供應商合作,從而可以縮短研發(fā)時間與行業(yè)龍頭Waymo、特斯拉等的差距。
成熟車企積極尋求在競爭中擺脫技術上對于供應商的過度依賴,因此向上游延申,建立獨立體系,自行開發(fā)迭代。上汽是國內自行研發(fā)自動駕駛核心技術的車企之一。
2015年,上汽即開始與Mobileye密集接觸,希望在其EyeQ系列芯片上開發(fā)輔助駕駛功能產品,自行掌握輔助駕駛系統(tǒng)的開發(fā)能力。為了輔助這個目標,上汽2017年在Mobileye總部所在地以色列建立了創(chuàng)新中心,加強與Mobileye的技術合作。
上汽在名爵6車型上推出的MGPilot智能駕駛系統(tǒng)是國內傳統(tǒng)車企首個不依賴某家Tier-1而自行開發(fā)的輔助駕駛系統(tǒng)。

視覺技術在車載領域的商業(yè)化實現(xiàn)

1.商業(yè)化機遇
1)需求的驅動力
消費彈性增長,購車年齡結構驅動根據(jù)麥肯錫2018年調研,我國消費者對全自動駕駛的接受程度逐年攀升。我國有接近50%消費者認為全自動駕駛非常重要,遠高于美國(16%)與德國(16%)。平均消費者愿意為ADAS承受溢價4600美元,同樣遠超美國(3900美元)與德國(2900美元)。
安全意義
視覺對于自動駕駛存在顯著的安全意義。防撞系統(tǒng)有效降低交通事故風險,Mobileye2016年測試結果顯示,安裝了
Mobileye系統(tǒng)的車輛每百千米前防撞警告次數(shù)平均下降27%;每百千米無意識車道偏離次數(shù)平均下降26%;當使用車距監(jiān)測與警告時每百千米碰撞警告次數(shù)平均下降39%。
虛擬后視鏡的安全性作用為遇到惡劣天氣的適應能力,符合車規(guī)級的虛擬后視鏡不會像鏡頭一樣出現(xiàn)沾水、起霧等情況,同時也可以覆蓋后視鏡盲區(qū),具有重要安全意義。
2)政策激勵視覺發(fā)展
去年7月,中國汽車技術研究中心的C-NCAP2018考評體系出臺,增加了行人保護試驗與主動安全(AEB系統(tǒng))試驗兩大重要項目,整體碰撞測試標準向歐美國際碰撞測試標準看齊。主動安全性測試主要考驗汽車AEB系統(tǒng)、FCW系統(tǒng)、人機交互和誤作用等幾項相較2015版規(guī)則嚴苛很多,增加注重后排乘客和行人的安全性。
新版更加嚴苛的測試項目刺激國內車企拓展L1與L2產品矩陣,把安全性納入產品開發(fā)與購置的重要考慮范圍,直接促進了ADAS視覺功能的發(fā)展。

視覺算法的商業(yè)實現(xiàn)

盈利模式
視覺方案在前裝和后裝市場的主要盈利模式不同。前裝市場對安全性能與個性化指標方面要求更高,要根據(jù)主機廠需求開發(fā),基于大量測試的反饋基礎上優(yōu)化算法。后裝市場落地速度相對更快、綜合成本低,是初創(chuàng)企業(yè)資金回籠的選擇之一。
合約開發(fā)模式
涉足前裝的公司與Tier1或整車廠形成長期合作關系,以批量訂單形式生產。其中利潤來自與開發(fā)有關的研發(fā)費用、授權費用以及日后維護/升級費用。
其中,部分算法公司提供芯片、模組、子系統(tǒng)等產品,剩余公司只提供軟件算法。
在與整車廠的合作過程中,算法公司通過Tier1間接報價給整車廠,或直接報價整車廠。在贏得訂單并獲得整車廠RFQ后,算法公司一般采取2種盈利模式:
Tier1為其支出的NRE費用(覆蓋開發(fā)成本)和生產采購費用;或是加上每部車收取的軟件版稅收入。線下代銷或線上直銷模式算法公司在后裝市場的普遍選擇。軟件公司選定芯片供應商,自行承擔采購費用并提供完整終端成品,包含電路板、攝像頭與支架。
價格預設
據(jù)我們判斷,后裝市場的單雙目方案有降價趨勢。目前一代單目方案國產廠商基本可以把價格控制在2000~3000元之間。隨著芯片成本下降,業(yè)務規(guī)?;?,下一代單目方案售價普遍有望降至2000元以下。雙目行業(yè)水準比單目貴30%~50%,基本在3000~4000元左右。雙目方案售價有望降至3000以下。
單目方案降價隨著硬件成本降低、規(guī)模化的基礎上拉低成本。雙目方案成本取決于算力芯片的開放度。支持雙目方案的FGPA只有賽靈思有車規(guī)級產品。瑞薩和安霸分別推出R-CARV3H和自動駕駛芯片CV1/2。以上專門針對雙目視覺處理器在運算能力上均與EyeQ4處于同一水準。
隨著雙目算力供給方案多元化,雙目的硬件成本隨之下降,在前裝市場的競爭力也相應增加。
2.商業(yè)化挑戰(zhàn)
視覺方案的落地普及化過程中,隨著合作模式開放化、針對客戶需求缺口的市場空間打開,后裝產品技術成熟化及前裝產品量產在即,視覺方案企業(yè)需要克服成本、研發(fā)周期、基礎設施等方面的挑戰(zhàn)。后裝產品的成本集中于硬件成本,前裝產品的成本以研發(fā)成本為主。兩者在商業(yè)化后都需要合理應對非標準化的基礎設施。
1)算法公司成本測算
生產成本后裝市場中:
對于集中于單目方案的算法公司,生產成本如上述,約占其總營收35~40%。
雙目方案的公司由于采用FPGA芯片,其量產成本約為ASIC的4~5倍,攝像頭模組于其他物料的成本也至少翻倍。以市場售價3000~4000元來看,其生產成本占其營收的50%左右,毛利率低于單目方案。
前裝市場中:
算法公司與合作Tier1共同承擔原材料成本。
研發(fā)成本
參考Mobileye成本結構,研發(fā)成本集中在前裝市場,主要來自公司的特定研發(fā)項目,被OEM的NRE(一次性研發(fā)費用)部分抵消。Mobileye的研發(fā)費用約占總營收的20%。
其他營業(yè)成本參照Mobileye成本結構,銷售成本占總營收的5%~10%。根據(jù)我們草根調研,后裝產品銷售費用較前裝更高,其中包括對用戶的教育、宣傳成本等。其余的運營成本約占總營收20%。綜合上述,單目算法公司成本結構大致框算如下:
隱性成本
對于后裝市場,客戶對產品的性價比、安裝速度、適配度都有較高的要求,這也是國內廠商具有的優(yōu)勢之一。Mobileye的產品因進口稅、增值稅等原因在價格競爭上處于劣勢,同時安裝時間長,不符合客戶需求。
相比之下,國內算法公司如Minieye自主研發(fā)的安裝工具精簡,安裝時間約20分鐘,為客戶節(jié)省人力開銷和時間成本。
Maxieye同樣從標定板和標定流程上進行了創(chuàng)新,將安裝流程總時長縮短至15分鐘,提高了客戶適配車型的效率。國內企業(yè)基于本土客戶需求做出的產品迭代是其致勝關鍵之一。

部分代表性公司

1.視覺方案龍頭Mobileye(2017年英特爾收購)
Mobileye成立于1999年,由希伯來大學教授AmnonShashua和ZivAviram共同創(chuàng)立,總部在以色列。Mobileye主要從事ADAS系統(tǒng)和自動駕駛視覺技術開發(fā),公司使命定為開發(fā)和推廣單攝像頭視覺系統(tǒng),以協(xié)助駕駛員在駕駛過程中保障乘客安全和減少交通事故。同時Mobileye還擁有針對自動駕駛領域自主研發(fā)的EyeQ系列視覺處理芯片。目前Mobileye與全球超過25家主機廠商,13家汽車制造廠商都有合作,有超過2700萬臺汽車采用Mobileye的。公司于2014年在紐交所上市,市值達80億美元,創(chuàng)下以色列公司在美國最高IPO紀錄。2017年3月,Mobileye被Intel以145億美金收購,創(chuàng)下了自動駕駛領域交易規(guī)模記錄。
1)核心產品:視覺算法與EyeQ芯片
Mobileye的核心產品為其視覺算法解決方案及EyeQ芯片。EyeQ系列芯片由Mobileye與意法半導體聯(lián)合開發(fā),意法半導體負責架構設計、芯片制造、系統(tǒng)封裝等,Mobilieye提供算法。Mobileye提供的視覺解決方案基于EyeQ芯片及其Mobileye的操作系統(tǒng)與軟件開發(fā)包緊密耦合,為軟硬件結合的一體化完整方案。
視覺算法
Mobileye將自動駕駛分為了三個主要組成部分:感知(Sensing),地圖(Mapping)與駕駛策略(DrivingPolicy)。感知指車輛所搭載的一切感知設備。高精度地圖幫助車輛在整個路徑規(guī)劃中精確定位。駕駛邏輯或策略指計算機在獲得了周邊環(huán)境的感知信息之后的應對。
駕駛策略方面Mobileye采用深度監(jiān)督式學習(DeepSupervisedLearning),使計算機通過觀察和分析不同的數(shù)據(jù)來自行生成并調整決策邏輯。其算法在避免碰撞時間、功能集成上處于行業(yè)頂尖水準。其FCW的算法識別精準度已經達到99.99%,同類企業(yè)無法企及。
Mobileye同時在研發(fā)強化學習(ReinforcementLearning),即預判式的算法,模擬周圍駕駛者對其新的駕駛策略所做出的反應的。。
芯片
Mobileye2004年開始研發(fā)EyeQ1,至現(xiàn)在已提供EyeQ5的工程樣品。2016年,Mobileye和意法半導體宣布,將合作研發(fā)Mobileye第五代SoC芯片,作為2020年實現(xiàn)全自動駕駛的處理器平臺,為L4/5級自動駕駛汽車提供以視覺為核心的計算機傳感器融合。
未完待續(xù)。。。。。。


來源 | 廣發(fā)證券、智車行家

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多