訂閱
糾錯(cuò)
加入自媒體

ECCV 2020 | 云端參會(huì)攻略之Oral篇,前排占位、強(qiáng)勢圍觀!

下圖顯示了問題的流程,下采樣過程使用了小波變換,并通過網(wǎng)絡(luò)得到了包含丟失信息的分布和對應(yīng)的低分辨圖像。

針對視角合成問題,來自伯克利、谷歌和UCSD的研究人員提出了將場景表示為神經(jīng)輻射場的過來進(jìn)行合成。利用全連接深度網(wǎng)絡(luò)來表示場景,其輸入為5D的空間位姿坐標(biāo)、輸出為體密度和空間位置視角相關(guān)的輻射。通過在相機(jī)方向上查詢5D坐標(biāo)并利用經(jīng)典的渲染技術(shù)將輸出顏色和密度映射到圖像上。

還有來自CMU和Argo AI關(guān)于自動(dòng)駕駛中延時(shí)造成場景流理解的研究,并提出了流精度的概念來將處理延時(shí)和精度進(jìn)行了整合。

以及谷歌研究人員對于非監(jiān)督光流進(jìn)行系統(tǒng)的研究,并構(gòu)建包括代價(jià)空間歸一化、遮擋梯度截止、光流場上采樣平滑以及尺度變化過程中的自監(jiān)督來改進(jìn)光流估計(jì)的結(jié)果。

除了這些論文,還有非常多有趣的精彩的研究成果在Oral中呈現(xiàn),更多的論文和代碼也在逐漸放出,我們將持續(xù)追蹤后續(xù)放出的研究成果,及時(shí)為小伙伴們呈現(xiàn)更多高水平的研究成果。

<上一頁  1  2  3  4  
聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號