一文了解基于ST-GCN的人體動(dòng)作識(shí)別與生成
ST-GCN: Spatial Temporal Graph Convolutional Networks時(shí)空?qǐng)D卷積網(wǎng)絡(luò),這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)來(lái)源于2018年發(fā)表的一篇文章《Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition》,也就是基于時(shí)空?qǐng)D卷積網(wǎng)絡(luò)來(lái)做人體動(dòng)作識(shí)別。
今天,我們就來(lái)了解下,如何基于ST-GCN來(lái)實(shí)現(xiàn)人體動(dòng)作的識(shí)別與生成。
Why:為什么要使用ST-GCN?
ST-GCN網(wǎng)絡(luò)訓(xùn)練好之后要達(dá)到的效果就是:用戶(hù)提供一段視頻,網(wǎng)絡(luò)會(huì)輸出視頻中人的動(dòng)作分類(lèi)。
類(lèi)似于上圖中的視頻,如何來(lái)識(shí)別視頻中的人在做什么動(dòng)作呢? 視頻其實(shí)就是一幀一幀的圖片拼接而成的,而傳統(tǒng)處理圖像識(shí)別的網(wǎng)絡(luò)最常用的就是CNN(卷積神經(jīng)網(wǎng)絡(luò)),那ST-GCN是否跟CNN有關(guān)系呢?為什么要使用這個(gè)網(wǎng)絡(luò)呢?
可以從以下三點(diǎn)來(lái)理解:
(1) 輸入數(shù)據(jù)有量級(jí)的差別。舉個(gè)例子,數(shù)據(jù)為一段10秒左右的視頻,大概300幀,像素1920*1080,分別輸入兩個(gè)網(wǎng)絡(luò)中。傳統(tǒng)CNN是將所有視頻拆分為一幀一幀的圖片輸入網(wǎng)絡(luò),而ST-GCN則直接輸入人體的骨架關(guān)節(jié)數(shù)據(jù),CNN的輸入數(shù)據(jù)量約為ST-GCN的83000倍。
(2) 輸入數(shù)據(jù)純凈度高,噪聲少。CNN是將視頻數(shù)據(jù)直接輸入網(wǎng)絡(luò),包括了視頻的背景以及圖片中的各種噪音,而ST-GCN是僅僅將人體骨架關(guān)節(jié)點(diǎn)的信息輸入網(wǎng)絡(luò),只保留了主要的有效信息,噪聲低。
(3) 考慮了空間和時(shí)間上的相鄰關(guān)節(jié),效果更好。ST-GCN不僅考慮了空間上的相鄰節(jié)點(diǎn),也考慮了時(shí)間上的相鄰節(jié)點(diǎn),將鄰域的概念擴(kuò)展到了時(shí)間上,實(shí)驗(yàn)效果表明精度也更高。
What:ST-GCN到底是什么?
ST-GCN是TCN與GCN的結(jié)合。TCN,對(duì)時(shí)間維度的數(shù)據(jù)進(jìn)行卷積操作;GCN,則對(duì)空間維度的數(shù)據(jù)進(jìn)行卷積操作。GCN屬于GNN,而GNN的基礎(chǔ)是圖論。神經(jīng)網(wǎng)絡(luò)處理的傳統(tǒng)數(shù)據(jù)都是歐式距離結(jié)構(gòu)的數(shù)據(jù),比如二維的圖像、一維的聲音等等。而對(duì)于非歐式距離結(jié)構(gòu)的數(shù)據(jù),比如社交網(wǎng)絡(luò)、交通運(yùn)輸網(wǎng)等等,傳統(tǒng)的網(wǎng)絡(luò)結(jié)構(gòu)無(wú)法直接處理,而GNN就是用來(lái)處理這類(lèi)型數(shù)據(jù)的。所以要了解ST-GCN,就要先從圖論的一些基本理論入手,然后再延伸到GNN、GCN、ST-GCN。
2.1 圖論
這里的圖并不是指我們?nèi)粘K?jiàn)的圖片,圖的廣泛概念包含具體的事物,以及事物之間的聯(lián)系。圖論中的圖由兩部分構(gòu)成,即點(diǎn)和邊。
點(diǎn):圖上具體的節(jié)點(diǎn)。
邊:連接圖上點(diǎn)和點(diǎn)之間的東西,邊分為有向邊和無(wú)向邊。
圖:節(jié)點(diǎn)V(G)和邊E(G)構(gòu)成的集合就是圖,可以表示為:G = {V(G), E(G)}。圖可以簡(jiǎn)單分為有向圖和無(wú)向圖(如下圖所示)。
2.2 GNN
GNN: Group Neural Network 圖神經(jīng)網(wǎng)絡(luò),即結(jié)合圖論與深度學(xué)習(xí)的網(wǎng)絡(luò)結(jié)構(gòu)。目前主要包含:Graph Convolutional Networks (GCN)、Graph Attention Networks、Graph Auto-encoder、Graph Generative Networks、Graph Spatial-Temporal Networks。最初的GNN網(wǎng)絡(luò),就是將點(diǎn)和邊的特征一起傳入網(wǎng)絡(luò)中學(xué)習(xí)。
2.3 GCN
GCN:Graph Convolutional Networks 圖卷積神經(jīng)網(wǎng)絡(luò),顧名思義,是將圖與卷積結(jié)合起來(lái)。根據(jù)卷積核的不同,主要分為spectral method(頻譜方法)和spatial method(空間方法)。二者的區(qū)別在于:頻譜方法基于拉普拉斯矩陣,與圖的關(guān)系緊密聯(lián)系,可泛化能力弱;空間方法則直接在圖上定義卷積,對(duì)有緊密關(guān)系的節(jié)點(diǎn)進(jìn)行操作,分為點(diǎn)分類(lèi)和圖分類(lèi)。ST-GCN中的GCN屬于圖分類(lèi),且采用的是空間方法。
2.4 ST-GCN
ST-GCN:Spatial Temporal Graph Convolutional Networks時(shí)空?qǐng)D卷積網(wǎng)絡(luò),是在GCN的基礎(chǔ)上提出的。核心觀(guān)點(diǎn)是將TCN與GCN相結(jié)合,用來(lái)處理有時(shí)序關(guān)系的圖結(jié)構(gòu)數(shù)據(jù)。網(wǎng)絡(luò)分為2個(gè)部分:GCN_Net與TCN_Net。
GCN_Net對(duì)輸入數(shù)據(jù)進(jìn)行空間卷積,即不考慮時(shí)間的因素,卷積作用于同一時(shí)序的不同點(diǎn)的數(shù)據(jù)。TCN_Net對(duì)數(shù)據(jù)進(jìn)行時(shí)序卷積,考慮不同時(shí)序同一特征點(diǎn)的關(guān)系,卷積作用于不同時(shí)序同一點(diǎn)的數(shù)據(jù)。
How:ST-GCN 具體如何使用?
前部分講了ST-GCN是什么,那我們回歸到ST-GCN的具體應(yīng)用上,首次提出ST-GCN是用來(lái)做人體動(dòng)作識(shí)別,即通過(guò)一段視頻來(lái)判斷其中人的動(dòng)作,也就是人體動(dòng)作識(shí)別。
數(shù)據(jù)集:論文中使用的數(shù)據(jù)集為NTU-RGB+D,包含60種動(dòng)作,共56880個(gè)樣本,其中有40類(lèi)為日常行為動(dòng)作,9類(lèi)為與健康相關(guān)的動(dòng)作,11類(lèi)為雙人相互動(dòng)作。數(shù)據(jù)集已經(jīng)將視頻中的人體動(dòng)作轉(zhuǎn)換為了骨架關(guān)節(jié)的數(shù)據(jù),其中人體的骨架標(biāo)注了25個(gè)節(jié)點(diǎn),就是一種圖結(jié)構(gòu)的數(shù)據(jù)。
NTU-RGB+D數(shù)據(jù)集的分類(lèi)
亮點(diǎn):
(1) 鄰接矩陣不采用傳統(tǒng)的方式,采用一種新的方式,將鄰接矩陣分為3個(gè)子集:根節(jié)點(diǎn)本身、向心力群,離心群。這一策略的靈感來(lái)自于身體部位的運(yùn)動(dòng)可以被廣泛地歸類(lèi)為同心運(yùn)動(dòng)和偏心運(yùn)動(dòng),通常距離重心越近,運(yùn)動(dòng)幅度越小,同時(shí)能更好地區(qū)分向心運(yùn)動(dòng)和離心運(yùn)動(dòng)。即下圖中的(d)。
(2) 網(wǎng)絡(luò)中加入可學(xué)習(xí)的邊的權(quán)重,即加入attention機(jī)制。每層網(wǎng)絡(luò)中鄰接矩陣A都與可學(xué)習(xí)的權(quán)重相乘,這些權(quán)重在反向傳播中更新。添加的原因是考慮到人體做不同的動(dòng)作所側(cè)重的關(guān)節(jié)點(diǎn)不同,而且添加了注意力機(jī)制更有利于提高網(wǎng)絡(luò)的泛化能力。
整體效果:
使用ST-GCN的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行人體動(dòng)作識(shí)別,論文中在NTU-RGB+D數(shù)據(jù)集的x_sub模式下識(shí)別精度達(dá)到81.5%,NTU-RGB+D數(shù)據(jù)集的x-view模式下識(shí)別精度達(dá)到88.3%,優(yōu)于傳統(tǒng)的人體動(dòng)作識(shí)別網(wǎng)絡(luò)。
團(tuán)隊(duì)工作亮點(diǎn)
ST-GCN的技術(shù)延展-動(dòng)作生成
基于對(duì)ST-GCN在人體動(dòng)作識(shí)別上的效果,我們將ST-GCN網(wǎng)絡(luò)與VAE網(wǎng)絡(luò)結(jié)合。目的在于獲取人體動(dòng)作的語(yǔ)義,進(jìn)而生成人體的動(dòng)作,最終可以應(yīng)用于機(jī)器人動(dòng)作模仿或者其他強(qiáng)化學(xué)習(xí)項(xiàng)目中。
目前項(xiàng)目已在進(jìn)行中,下圖展示的是真實(shí)的人體骨架節(jié)點(diǎn)3D圖與網(wǎng)絡(luò)生成的人體骨架節(jié)點(diǎn)3D圖。具體的研究結(jié)果,之后再跟大家分享,敬請(qǐng)期待。
發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
最新活動(dòng)更多
-
11月20日火熱報(bào)名中>> 2024 智能家居出海論壇
-
11月28日立即報(bào)名>>> 2024工程師系列—工業(yè)電子技術(shù)在線(xiàn)會(huì)議
-
12月19日立即報(bào)名>> 【線(xiàn)下會(huì)議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會(huì)
-
即日-12.26火熱報(bào)名中>> OFweek2024中國(guó)智造CIO在線(xiàn)峰會(huì)
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書(shū)》
-
精彩回顧立即查看>> 【在線(xiàn)會(huì)議】多物理場(chǎng)仿真助跑新能源汽車(chē)
推薦專(zhuān)題
- 1 腦機(jī)接口芯片,華為出了新專(zhuān)利!
- 2 今年諾獎(jiǎng)對(duì)人工智能的重視,給我們的基礎(chǔ)教育提了個(gè)醒
- 3 銀行業(yè)AI大模型,從入局到求變
- 4 巨頭搶布局,VC狂撒錢(qián),為了能讓「AI讀心」這些公司卷瘋了
- 5 阿斯麥ASML:“骨折級(jí)”洋相,又成AI第一殺手?
- 6 蘋(píng)果市值創(chuàng)新高,iPhone 16能否助力突破4萬(wàn)億美元大關(guān)?
- 7 一場(chǎng)“載入史冊(cè)”的發(fā)布會(huì),讓馬斯克失去了4700億
- 8 百度谷歌比較研究2024:中美“遠(yuǎn)古AI龍頭”的現(xiàn)狀與趨勢(shì)
- 9 洞見(jiàn)AI風(fēng)潮 第二屆vivo藍(lán)河操作系統(tǒng)創(chuàng)新賽開(kāi)啟招募
- 10 地平線(xiàn)開(kāi)啟配售,阿里百度各砸5000萬(wàn)美金,市值最高超500億
- 高級(jí)軟件工程師 廣東省/深圳市
- 自動(dòng)化高級(jí)工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷(xiāo)售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級(jí)銷(xiāo)售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專(zhuān)家 廣東省/江門(mén)市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市