論文の概要: GaitTAKE: Gait Recognition by Temporal Attention \\and Keypoint-guided
Embedding
- arxiv url: http://arxiv.org/abs/2207.03608v1
- Date: Thu, 7 Jul 2022 22:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 13:39:39.383990
- Title: GaitTAKE: Gait Recognition by Temporal Attention \\and Keypoint-guided
Embedding
- Title(参考訳): GaitTake: 一時的注意による歩行認識 : キーポイント誘導型埋め込み
- Authors: Hung-Min Hsu, Yizhou Wang, Cheng-Yen Yang, Jenq-Neng Hwang, Hoang Le
Uyen Thuc, Kwang-Ju Kim
- Abstract要約: 我々は、時間的注意とキーポイント誘導埋め込み(GaitTAKE)と呼ばれる新しい歩行認識フレームワークを提案する。
実験の結果,提案手法は歩行認識において,98.0%(正常),97.5%(バッグ),92.2%(コート)の新たなSOTAを実現することがわかった。
- 参考スコア(独自算出の注目度): 35.91172547755888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition, which refers to the recognition or identification of a
person based on their body shape and walking styles, derived from video data
captured from a distance, is widely used in crime prevention, forensic
identification, and social security. However, to the best of our knowledge,
most of the existing methods use appearance, posture and temporal feautures
without considering a learned temporal attention mechanism for global and local
information fusion. In this paper, we propose a novel gait recognition
framework, called Temporal Attention and Keypoint-guided Embedding (GaitTAKE),
which effectively fuses temporal-attention-based global and local appearance
feature and temporal aggregated human pose feature. Experimental results show
that our proposed method achieves a new SOTA in gait recognition with rank-1
accuracy of 98.0% (normal), 97.5% (bag) and 92.2% (coat) on the CASIA-B gait
dataset; 90.4% accuracy on the OU-MVLP gait dataset.
- Abstract(参考訳): 遠方から撮影した映像データを基にした体型や歩行スタイルに基づく人物の認識・識別をいう歩行認識は、犯罪防止、法医学的識別、社会保障に広く用いられている。
しかし, 既存の手法では, 大域的, 局所的情報融合のための学習時間的注意機構を考慮せず, 外観, 姿勢, 時間的効果を用いることが多い。
本稿では,時間的意識に基づくグローバル・ローカルな外観特徴と時間的集約された人間のポーズ特徴を効果的に融合させる,時間的意識とキーポイント誘導埋め込み(GaitTAKE)と呼ばれる新しい歩行認識フレームワークを提案する。
提案手法は,casia-b gaitデータセットにおいて98.0% (正規), 97.5% (バッグ), 92.2% (コート), ou-mvlp gaitデータセットでは90.4%の精度で, 歩行認識において新たなsotaを実現する。
関連論文リスト
- Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - Sequential Attention Source Identification Based on Feature
Representation [88.05527934953311]
本稿では,テンポラルシーケンスに基づくグラフ注意源同定(TGASI)と呼ばれるシーケンス・ツー・シーケンス・ベースのローカライズ・フレームワークを提案する。
なお、このインダクティブラーニングのアイデアは、TGASIが他の事前の知識を知らずに新しいシナリオのソースを検出できることを保証する。
論文 参考訳(メタデータ) (2023-06-28T03:00:28Z) - GaitGS: Temporal Feature Learning in Granularity and Span Dimension for Gait Recognition [34.07501669897291]
GaitGSは、時間的特徴を粒度とスパン次元の両方で同時に集約するフレームワークである。
本手法は,2つのデータセットに対して98.2%,96.5%,89.7%のランク1精度を達成し,最先端の性能を示す。
論文 参考訳(メタデータ) (2023-05-31T09:48:25Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Spatio-temporal Gait Feature with Adaptive Distance Alignment [90.5842782685509]
我々は,ネットワーク構造の最適化と抽出した歩行特徴の洗練という2つの側面から,異なる被験者の歩行特徴の差を増大させようとしている。
提案手法は時空間特徴抽出(SFE)と適応距離アライメント(ADA)から構成される。
ADAは実生活における多数の未ラベルの歩行データをベンチマークとして使用し、抽出した時間的特徴を洗練し、クラス間類似度が低く、クラス内類似度が高いようにしている。
論文 参考訳(メタデータ) (2022-03-07T13:34:00Z) - RealGait: Gait Recognition for Person Re-Identification [79.67088297584762]
我々は,既存の映像人物の再識別課題からシルエットを抽出し,制約のない方法で歩く1,404人からなる新たな歩行データセットを構築した。
以上の結果から、実際の監視シナリオにおける歩行による認識は実現可能であり、その基盤となる歩行パターンが、実際にビデオの人物認識が機能する真の理由である可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-13T06:30:56Z) - SelfGait: A Spatiotemporal Representation Learning Method for
Self-supervised Gait Recognition [24.156710529672775]
歩行認識は、歩行が距離で認識することができるユニークな生体測定機能であるため、人間の識別に重要な役割を果たします。
既存の歩行認識法は歩行系列から歩行特徴を異なる方法で学習することができるが、歩行認識の性能はラベル付きデータに苦しむ。
本研究では, 事前学習プロセスとして, 多種多様でラベルなしの歩行データを活用した自己監視歩行認識手法であるSelfGaitを提案する。
論文 参考訳(メタデータ) (2021-03-27T05:15:39Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - GaitSet: Cross-view Gait Recognition through Utilizing Gait as a Deep
Set [19.017795736485944]
歩行は、距離で認識できるユニークな生体認証機能である。
既存の歩行認識方法は、不要な順序制約を維持する歩行テンプレートまたは歩行シーケンスを利用する。
本稿では,歩行を深層集合として利用する新しい視点について述べる。つまり,一組の歩行フレームがグローバルな局所融合深層ネットワークによって統合されることを意味する。
論文 参考訳(メタデータ) (2021-02-05T15:49:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。