日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

GaitSet:通過交叉視角步態(tài)識別

 小白學(xué)視覺 2021-02-13

重磅干貨,第一時間送達(dá)


小白導(dǎo)讀

論文是學(xué)術(shù)研究的精華和未來發(fā)展的明燈。小白決心每天為大家?guī)斫?jīng)典或者最新論文的解讀和分享,旨在幫助各位讀者快速了解論文內(nèi)容。個人能力有限,理解難免出現(xiàn)偏差,建議對文章內(nèi)容感興趣的讀者,一定要下載原文,了解具體內(nèi)容。


摘要

步態(tài)是一種獨(dú)特的生物特征,可以在一定距離內(nèi)被識別;因此,它在犯罪預(yù)防、司法鑒定、社會保障等方面有著廣泛的應(yīng)用。為了描述步態(tài),現(xiàn)有的步態(tài)識別方法要么使用難以保存時間信息的步態(tài)模板,要么使用保留不必要的序列約束從而喪失步態(tài)識別靈活性的步態(tài)序列。在本文中,作者提出一個新穎的視角,采用步態(tài)作為一套深,這意味著一套步態(tài)框架由一個全球性的本土集成融合深度網(wǎng)絡(luò)受左,右半球處理信息的方式學(xué)習(xí)信息,可用于識別?;谶@種深集視角,作者的方法不受幀排列的影響,可以很自然地將不同場景下獲取的不同視頻幀進(jìn)行整合,比如不同的觀看角度,不同的衣服,或者不同的攜帶物品的情況。實(shí)驗(yàn)表明,在正常步行條件下,作者的單模型方法在CASIA-B步態(tài)數(shù)據(jù)集上的平均秩1精度達(dá)到96.1%,在OU-MVLP步態(tài)數(shù)據(jù)集上的平均秩1精度達(dá)到87.9%。在各種復(fù)雜的場景下,作者的模型也表現(xiàn)出高度的健壯性。在提包行走和穿大衣行走條件下,CASIA-B的準(zhǔn)確率分別達(dá)到90.8%和70.3%,顯著優(yōu)于現(xiàn)有的最佳方法。此外,該方法即使在測試樣本中幀數(shù)較少的情況下也能保持令人滿意的精度;例如,在CASIA-B上,即使只使用7幀,它也能達(dá)到85.0%。

代碼鏈接:https://github.com/AbnerHqC/GaitSet

論文創(chuàng)新點(diǎn)

作者提出了一種端到端的深度學(xué)習(xí)模型,稱為Gaitset,從步態(tài)框架集提取特征來識別步態(tài)。圖2為Gaitset的總體方案。作者模型的輸入是一組步態(tài)輪廓。首先,使用CNN從每個輪廓獨(dú)立提取幀級特征(局部信息)。其次,一個稱為集池的操作用于將幀級特性聚合為單個集級特性(全局信息)。由于該操作使用的是高級特征圖而不是原始輪廓,它比步態(tài)模板更好地保存了空間和時間信息;這方面在第4.5節(jié)中得到了實(shí)驗(yàn)驗(yàn)證。全局-局部融合深度網(wǎng)絡(luò)類似于作者的大腦處理[11]信息的方式。第三,應(yīng)用水平金字塔映射(HPM)結(jié)構(gòu)將集-水平特征投影到一個更具判別性的空間,以獲得最終的深集表示。本文所提出的方法的優(yōu)越性可以概括為以下三個方面:

  • 靈活:作者的模型非常靈活,因?yàn)槌溯喞拇笮?,它沒有對輸入施加任何限制。這意味著輸入集合可以包含任意數(shù)量的非連續(xù)輪廓,這些輪廓是在不同的視點(diǎn)和不同的行走條件下拍攝的。

  • 快速:作者的模型直接學(xué)習(xí)步態(tài)的深層步態(tài)表征,而不是測量一對步態(tài)模板或序列之間的相似性。這樣,每個樣本的表示只需計(jì)算一次,通過比較不同樣本表示之間的歐氏距離即可進(jìn)行識別。

  • 有效:作者的模型顯著提高了CASIA-B[12]和OU-MVLP[13]數(shù)據(jù)集的最新性能,顯示出對觀察和行走條件變化的強(qiáng)大魯棒性和對大數(shù)據(jù)集的高泛化能力。

框架結(jié)構(gòu)

GaitSet的框架。SP表示集合池。梯形表示卷積和池塊,在同一列中的那些具有相同的配置,如大寫字母的矩形所示。注意,盡管MGP中的塊與主管道中的塊具有相同的配置,但參數(shù)只在主管道中的塊之間共享,而不與MGP中的塊共享。HPP表示水平金字塔池化。

七個不同的集合池(SP)實(shí)例化。1_1C和cat分別表示1×1卷積層和連接操作。其中,n表示集合中特征映射的數(shù)量,c、h、w分別表示通道數(shù)量、特征映射的高度和寬度。a.三個基本統(tǒng)計(jì)關(guān)注和兩個聯(lián)合關(guān)注,b.像素關(guān)注和c.幀關(guān)注。

水平金字塔的結(jié)構(gòu)映射

實(shí)驗(yàn)結(jié)果

結(jié)論

在這篇論文中,作者提出了一個新的觀點(diǎn),將步態(tài)視為一個深度集,稱為步態(tài)集。與現(xiàn)有的將步態(tài)視為模板或序列的方法相比,本文提出的步態(tài)提取方法能更有效地提取空間和時間信息。與其他現(xiàn)有的步態(tài)識別方法不同,GaitSet方法還提供了一種創(chuàng)新的方法,可以從不同序列中聚合有價值的時空信息,以提高跨視角步態(tài)識別的準(zhǔn)確性。在兩個基準(zhǔn)步態(tài)數(shù)據(jù)集上的實(shí)驗(yàn)表明,與其他最先進(jìn)的算法相比,GaitSet實(shí)現(xiàn)了最高的識別精度,結(jié)果表明,GaitSet在應(yīng)用于各種復(fù)雜環(huán)境時表現(xiàn)出廣泛的靈活性和魯棒性,顯示了實(shí)際應(yīng)用的巨大潛力。此外,由于set假設(shè)可以適用于各種其他生物特征識別任務(wù),包括人的再識別和基于視頻的人臉識別,GaitSet的結(jié)構(gòu)可以在未來應(yīng)用于這些任務(wù),很少有微小的變化。

論文鏈接:https:///pdf/2102.03247.pdf

每日堅(jiān)持論文分享不易,如果喜歡我們的內(nèi)容,希望可以推薦或者轉(zhuǎn)發(fā)給周圍的同學(xué)。

- END -

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多