訂閱
糾錯(cuò)
加入自媒體

ECCV 2020 | 云端參會(huì)攻略之Oral篇,前排占位、強(qiáng)勢(shì)圍觀!


來(lái)自復(fù)旦、谷歌和Nuro,Inc提出一種深度BA方法來(lái)實(shí)現(xiàn)SFM重建,通過(guò)設(shè)計(jì)一種基于物理原理的架構(gòu)來(lái)實(shí)現(xiàn)優(yōu)化過(guò)程中的結(jié)構(gòu)約束。架構(gòu)中包含了兩個(gè)cost volum來(lái)估計(jì)深度和位置,迭代的進(jìn)行改進(jìn)。其中不僅加入圖像度量來(lái)保證輸入間的連續(xù)性,同時(shí)還添加了幾何連續(xù)性保證不同視角間的深度一致。位置和深度的顯式約束結(jié)合了BA和深度學(xué)習(xí)的共同優(yōu)勢(shì),實(shí)現(xiàn)了非常好重建性能。

來(lái)自牛津大學(xué)、百度和港中文的研究人員提出了一種具有域不變性的立體匹配網(wǎng)絡(luò),通過(guò)域歸一化的手段來(lái)正則化學(xué)習(xí)到的分布,同時(shí)利用可訓(xùn)練的非局域圖濾波器抽取結(jié)構(gòu)和幾何特征進(jìn)一步增強(qiáng)域不變性的的泛化性。下圖顯示了域歸一化和文中使用的圖結(jié)構(gòu)。

來(lái)自康奈爾和浙大的研究人員提出了一種弱監(jiān)督的特征描述子學(xué)習(xí)方法,基于圖像和相機(jī)間的相對(duì)位置來(lái)進(jìn)行監(jiān)督。為此采用了包含極線約束的損失函數(shù)和完全可差分的高效模型架構(gòu)。由于脫離了逐像素約束的限制,這種方法可以在更為廣泛的數(shù)據(jù)集上訓(xùn)練得到更無(wú)偏更通用的描述子。下圖顯示了僅僅依賴相機(jī)位置的極線約束訓(xùn)練過(guò)程(相同顏色對(duì)應(yīng)點(diǎn)和極線):

下圖則是極線約束的具體示意圖:

可差分層和由粗到細(xì)的模塊結(jié)構(gòu):

來(lái)自清華、慕尼黑理工和谷歌的研究人員提出的自監(jiān)督單目6D位姿估計(jì),消除了對(duì)于標(biāo)注數(shù)據(jù)的需求。研究人員首先在合成的RGB數(shù)據(jù)集上進(jìn)行訓(xùn)練,隨后利用大量非標(biāo)記數(shù)據(jù)和神經(jīng)渲染方法來(lái)改進(jìn)訓(xùn)練結(jié)果。

下圖展示了完整的訓(xùn)練架構(gòu):

谷歌的研究人員針對(duì)深度估計(jì)領(lǐng)域提出了雙相機(jī)雙像素的估計(jì)方法,獲得了具有邊緣感知在遮擋情況下精度更高的深度結(jié)果。通過(guò)大垂直極限的雙相機(jī)和小水平基線的雙像素緩解了孔徑問(wèn)題和遮擋問(wèn)題。這篇文章使用了新穎的架構(gòu)融合雙目立體視覺(jué)和雙像素立體視覺(jué),克服了單純立體視覺(jué)在遮擋、重復(fù)紋理、邊緣誤差方面的劣勢(shì)。

<上一頁(yè)  1  2  3  4  下一頁(yè)>  
聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)