訂閱
糾錯
加入自媒體

ECCV 2020論文合集(目標(biāo)檢測)

3D目標(biāo)檢測

1 Rethinking Pseudo-LiDAR Representation

作者:Xinzhu Ma,Shinan Liu,Zhiyi Xia,Hongwen Zhang,Xingyu Zeng,Wanli Ouyang

機(jī)構(gòu):悉尼大學(xué),商湯科技

簡介:最近提出的基于偽激光雷達(dá)的三維探測器大大提高了單目/立體三維探測任務(wù)的基準(zhǔn)。然而,研究界對其潛在的機(jī)制仍不甚清楚。本文對偽激光雷達(dá)的數(shù)據(jù)表示進(jìn)行了深入研究,發(fā)現(xiàn)偽激光雷達(dá)表示的有效性來自于坐標(biāo)變換,而不是數(shù)據(jù)表示本身。在此基礎(chǔ)上,作者設(shè)計了一種基于圖像的CNN探測器Patch-Net,它是一種更通用的、可以實例化為基于偽激光雷達(dá)的3D探測器。此外,本文的PatchNet中的偽激光雷達(dá)數(shù)據(jù)被組織為圖像表示,這意味著現(xiàn)有的2D CNN設(shè)計可以很容易地用于從輸入數(shù)據(jù)中提取深層特征并提高3D檢測性能。作者在具有挑戰(zhàn)性的KITTI數(shù)據(jù)集上進(jìn)行了大量的實驗,其中提出的PatchNet優(yōu)于所有現(xiàn)有的基于偽激光雷達(dá)的同類產(chǎn)品。

2 Pillar-based Object Detection for Autonomous Driving

作者:Yue Wang,Alireza Fathi,Abhijit Kundu,David Ross,Caroline Pantofaru,Tom Funkhouser,Justin Solomon

機(jī)構(gòu):MIT,Google

簡介:本文提出了一種簡單靈活的自動駕駛目標(biāo)檢測框架。在觀察到該應(yīng)用中的點云非常稀疏的基礎(chǔ)上,提出了一種實用的基于柱的方法來解決錨定引起的不平衡問題。特別地,本文的算法在多視點特征學(xué)習(xí)中加入了柱面投影,預(yù)測了每個柱而不是每個點或每個錨點的邊界盒參數(shù),并且包含了一個對齊的柱到點投影模塊來提高最終預(yù)測。本文的無錨方法避免了與以往方法相關(guān)的超參數(shù)搜索,簡化了三維目標(biāo)檢測,同時顯著提高了最先進(jìn)的水平。

3 EPNet: Enhancing Point Features with Image Semantics for 3D Object Detection

作者:Tengteng Huang,Zhe Liu,Xiwu Chen,Xiang Bai

機(jī)構(gòu):華中科技大學(xué)

簡介:本文針對三維檢測任務(wù)中的兩個關(guān)鍵問題,即多傳感器(即LiDAR點云和相機(jī)圖像)的開發(fā)以及定位和分類置信度之間的不一致性。為此,作者提出了一種新的融合模塊,在不需要任何圖像注釋的情況下,對具有語義特征的點特征進(jìn)行逐點增強。此外,使用一致性強制損失來明確鼓勵本地化和分類可信度的一致性。作者設(shè)計了一個端到端的可學(xué)習(xí)框架EPNet來集成這兩個組件。在KITTI和SUN-RGBD數(shù)據(jù)集上進(jìn)行的大量實驗證明了EPNet優(yōu)于最先進(jìn)的方法。

視頻目標(biāo)檢測

1 Learning Where to Focus for Efficient Video Object Detection

作者:Zhengkai Jiang,Y. Liu,Ceyuan Yang,Jihao Liu, Peng Gao,Qian Zhang,Shiming Xiang,C. Pan

機(jī)構(gòu):騰訊

簡介:將現(xiàn)有的基于圖像的檢測器轉(zhuǎn)移到視頻中是非常重要的,因為部分遮擋、罕見姿勢和運動模糊會導(dǎo)致幀質(zhì)量下降。以前的方法利用光流翹曲在視頻幀間傳播和聚集特征。然而,直接將圖像級光流應(yīng)用于高層特征可能無法建立精確的空間對應(yīng)關(guān)系。為此,提出了一種新的可學(xué)習(xí)時空采樣(LSTS)模塊來準(zhǔn)確地學(xué)習(xí)相鄰幀特征之間的語義級對應(yīng)關(guān)系。首先對采樣點進(jìn)行隨機(jī)初始化,然后迭代更新,在檢測監(jiān)督的指導(dǎo)下逐步尋找更好的空間對應(yīng)關(guān)系。此外,還分別引入稀疏遞歸特征更新(SRFU)模塊和密集特征聚合(DFA)模塊來建模時間關(guān)系和增強每幀特征。該方法在imagenetvid數(shù)據(jù)集上實現(xiàn)了最先進(jìn)的性能,計算復(fù)雜度和實時速度都很低。

AMiner 會議智圖開放平臺 ECCV 2020 專題了解會議的精彩內(nèi)容,其內(nèi)容包括論文、作者、華人學(xué)者、一作華人學(xué)生、論文 PPT 和視頻等多維分析服務(wù),是參會學(xué)者的會議智能助理。

<上一頁  1  2  3  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號