訂閱
糾錯
加入自媒體

ECCV 2020 | 云端參會攻略之Oral篇,前排占位、強(qiáng)勢圍觀!


在三維曲面重建方面,來自澳大利亞國立的研究人員提出了一種DeepFit的方法,通過神經(jīng)網(wǎng)絡(luò)加權(quán)的最小二乘來擬合曲面。神經(jīng)網(wǎng)絡(luò)為每一個點提供了權(quán)重作為鄰域點的柔性,避免了先前方法中的尺度需求。同時提出了表面連續(xù)性損失來改進(jìn)權(quán)重估計。這種方法可以有效抽取表面法向量和曲率等幾何特征。下圖顯示了法向量和曲率的估計流程,針對每一個點都可以計算出全局和局部的表示,并估計出逐點的權(quán)重結(jié)果,隨后通過解最小二乘法方法來擬合n-jet。

在時尚領(lǐng)域,康奈爾、谷歌和Hearst Magazines提出了Fashionpedia數(shù)據(jù)集,包含了本體、分割、屬性定位等豐富的數(shù)據(jù)資源。

來自港中文、深圳大數(shù)據(jù)研究院、浙大、西安交大、騰訊和中科大的研究人員們提出了用于三維服飾時尚重建的Deep Fashion3D數(shù)據(jù)集,包含了2078個模型重建數(shù)據(jù)、覆蓋了10個不同的類別和563種實例。

針對行人的相關(guān)研究,來自伯克利、南京大學(xué)和Facebook的研究人提出了基于場景上下文的長時行人運動軌跡預(yù)測,在給定單圖場景和2D位置歷史的基礎(chǔ)上,可以預(yù)測出人體行為受到場景的長期影響。下圖顯示了場景中人體行為的預(yù)測結(jié)果。

來自佐治亞理工、威斯康辛麥迪遜、德國馬普研究所和圖賓根大學(xué)的研究人員提出了預(yù)測人體與場景中目標(biāo)的交互過程,通過將手的意圖特征編碼到網(wǎng)絡(luò)中與輸入圖像共同預(yù)測交互的目標(biāo)。

此外針對圖像修復(fù)和圖像質(zhì)量提升方面,來自港中文、南洋理工、港大的研究人員提出了利用深度生成先驗來對圖像進(jìn)行修復(fù)和操作,基于大規(guī)模自然圖像數(shù)據(jù)集訓(xùn)練的生成模型來捕捉圖像先驗,為各種退化過程的修復(fù)提供了良好的保障。

北京大學(xué)、微軟亞洲研究院和多倫多大學(xué)的研究人員針對縮放圖像信息丟失問題提出了一種新的視角為縮放與上采樣進(jìn)行建模,構(gòu)建了可逆的雙射過程。提出了可逆縮放網(wǎng)絡(luò)來提升低分辨圖像效果,并捕捉下采樣過程中的信息丟失,使得尺度縮放過程變得可回溯。

<上一頁  1  2  3  4  下一頁>  余下全文
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號