夜先锋av资源网站,国产精品极品美女在线观看免,欧美亚洲精品电影在线观看,日韩在线精品强乱一区二区三区

首頁(yè) 資訊 > 創(chuàng)新 > 正文

天天看點(diǎn):AI應(yīng)用大咖說(shuō):多相機(jī)的時(shí)空融合模型架構(gòu)算法優(yōu)化

隨著人工智能技術(shù)的廣泛應(yīng)用,智能駕駛系統(tǒng)正在成為汽車的標(biāo)配。而作為識(shí)別周邊環(huán)境的“火眼金睛”,“感知”模塊是智能駕駛系統(tǒng)安全、高效運(yùn)行的核心,而視覺感知更是其中無(wú)比重要的一環(huán)。浪潮信息AI團(tuán)隊(duì)長(zhǎng)期關(guān)注AI算法在自動(dòng)駕駛中的應(yīng)用,并致力于用軟硬件的算法和技術(shù)創(chuàng)新推動(dòng)行業(yè)的進(jìn)步,做出創(chuàng)新性的成績(jī)。最近,浪潮信息在自動(dòng)駕駛感知權(quán)威數(shù)據(jù)集 NuScenes 評(píng)測(cè)中,自研算法 DABNet4D 獲得 0. 624 的NDS精度,位列Camera-only榜單第一名。

近日,浪潮信息人工智能與高性能應(yīng)用軟件部自動(dòng)駕駛AI研究員趙云博士,在題為《探索自動(dòng)駕駛純視覺感知精度新突破 -- 多相機(jī)的時(shí)空融合模型架構(gòu)算法優(yōu)化》的自動(dòng)駕駛線上研討會(huì)上,向我們揭開了這一自動(dòng)駕駛感知算法的神秘面紗。

多相機(jī)多任務(wù)融合模型優(yōu)勢(shì)


(資料圖片)

自動(dòng)駕駛汽車完成自動(dòng)駕駛出行任務(wù),離不開感知、決策、控制三大要素。其中感知系統(tǒng)是車輛和環(huán)境交互的紐帶,相當(dāng)于無(wú)人汽車的眼睛。根據(jù)所用的傳感器以及傳感器數(shù)量和種類等,自動(dòng)駕駛感知算法可以簡(jiǎn)單的分為單傳感器(單任務(wù)和多任務(wù))模型、(同類和不同類)傳感器融合模型等四類,并各有其優(yōu)缺點(diǎn)。

自動(dòng)駕駛感知的關(guān)鍵是3D目標(biāo)檢測(cè)任務(wù),又分為基于相機(jī)、Lidar的3D目標(biāo)檢測(cè),以及相機(jī)、Lidar、Radar融合等技術(shù)。盡管目前對(duì)于3D目標(biāo)檢測(cè)已經(jīng)有不少的研究,但是在實(shí)際應(yīng)用中仍然有許多的問(wèn)題,其難點(diǎn)主要在于:

遮擋,遮擋分為兩種情況,目標(biāo)物體相互遮擋和目標(biāo)物體被背景遮擋

截?cái)?,部分物體被圖片截?cái)啵趫D片中只能顯示部分物體

小目標(biāo),相對(duì)輸入圖片大小,目標(biāo)物體所占像素點(diǎn)極少

缺失深度信息,2D圖片相對(duì)于激光數(shù)據(jù)存在信息稠密、成本低的優(yōu)勢(shì),但是也存在缺失深度信息的缺點(diǎn)

現(xiàn)有方式大都依賴于物體表面紋理或結(jié)構(gòu)特征,容易造成混淆。

目前,基于相機(jī)的方法與基于Lidar的方法準(zhǔn)確度差距正在縮小,而隨著Lidar成本降低,融合技術(shù)在成本和準(zhǔn)確度的平衡上存在優(yōu)勢(shì)。

基于多相機(jī)多任務(wù)融合模型的3D目標(biāo)檢測(cè)技術(shù)正是在成本優(yōu)勢(shì)與日益增長(zhǎng)的準(zhǔn)確度兩相促進(jìn)下得到越來(lái)越多的認(rèn)可。目前,多相機(jī)多任務(wù)融合模型主要遵循特征提取、特征編碼、統(tǒng)一BEV、特征解碼和檢測(cè)頭五大部分。

其中,統(tǒng)一BEV 就是鳥瞰圖,亦即將圖像特征統(tǒng)一投射到BEV視角下,用以表示車周圍環(huán)境?!敖y(tǒng)一BEV”的工作可以分為兩大類,一種基于幾何視覺的變換,也就是基于相機(jī)的物理原理,優(yōu)勢(shì)在于模型確定,難度在深度估計(jì);另一種是基于神經(jīng)網(wǎng)絡(luò)的變換。

浪潮DABNet4D算法三大創(chuàng)新突破

據(jù)趙云介紹,浪潮DABNet4D算法遵循上述框架,采用基于幾何視覺的變換方法,設(shè)計(jì)了端到端的模塊化整體架構(gòu),通過(guò)將環(huán)視圖檢測(cè)統(tǒng)一到BEV空間,為后續(xù)的工作提供了很好的模板。

DABNet4D模型被劃分為四個(gè)部分,Image-view Encoder,View-transformer,BEV-Encoder,Detection Head。其中Image-view Encoder為圖像編碼模塊將原始圖像轉(zhuǎn)換為高層特征表示。 View-Transformer模塊負(fù)責(zé)將圖像特征轉(zhuǎn)換到BEV坐標(biāo)中,主要包括三個(gè)模塊:深度預(yù)測(cè)模塊、特征轉(zhuǎn)換模塊和多幀特征融合模塊。BEV-Encoder & Heads主要是對(duì)融合BEV特征進(jìn)行編碼;Heads用來(lái)完成最終的3D目標(biāo)檢測(cè)任務(wù)。

關(guān)鍵詞: 目標(biāo)檢測(cè) 浪潮信息 廣泛應(yīng)用 神經(jīng)網(wǎng)絡(luò) 周圍環(huán)境

最近更新

關(guān)于本站 管理團(tuán)隊(duì) 版權(quán)申明 網(wǎng)站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2018 創(chuàng)投網(wǎng) - www.ossf.org.cn All rights reserved
聯(lián)系我們:39 60 29 14 2@qq.com
皖I(lǐng)CP備2022009963號(hào)-3