論文の概要: GaitMAST: Motion-Aware Spatio-Temporal Feature Learning Network for
Cross-View Gait Recognition
- arxiv url: http://arxiv.org/abs/2210.11817v1
- Date: Fri, 21 Oct 2022 08:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:09:49.172545
- Title: GaitMAST: Motion-Aware Spatio-Temporal Feature Learning Network for
Cross-View Gait Recognition
- Title(参考訳): GaitMAST:クロスビュー歩行認識のための運動対応時空間特徴学習ネットワーク
- Authors: Jingqi Li, Jiaqi Gao, Yuzhen Zhang, Hongming Shan, Junping Zhang
- Abstract要約: 動作認識機能の可能性を解き放つGaitMASTを提案する。
GitMASTは個人のユニークなウォーキングパターンをよく保存する。
平均ランク1の精度は98.1%である。
- 参考スコア(独自算出の注目度): 32.76653659564304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a unique biometric that can be perceived at a distance, gait has broad
applications in person authentication, social security and so on. Existing gait
recognition methods pay attention to extracting either spatial or
spatiotemporal representations. However, they barely consider extracting
diverse motion features, a fundamental characteristic in gaits, from gait
sequences. In this paper, we propose a novel motion-aware spatiotemporal
feature learning network for gait recognition, termed GaitMAST, which can
unleash the potential of motion-aware features. In the shallow layer,
specifically, we propose a dual-path frame-level feature extractor, in which
one path extracts overall spatiotemporal features and the other extracts motion
salient features by focusing on dynamic regions. In the deeper layers, we
design a two-branch clip-level feature extractor, in which one focuses on
fine-grained spatial information and the other on motion detail preservation.
Consequently, our GaitMAST preserves the individual's unique walking patterns
well, further enhancing the robustness of spatiotemporal features. Extensive
experimental results on two commonly-used cross-view gait datasets demonstrate
the superior performance of GaitMAST over existing state-of-the-art methods. On
CASIA-B, our model achieves an average rank-1 accuracy of 94.1%. In particular,
GaitMAST achieves rank-1 accuracies of 96.1% and 88.1% under the bag-carry and
coat wearing conditions, respectively, outperforming the second best by a large
margin and demonstrating its robustness against spatial variations.
- Abstract(参考訳): 距離で知覚できるユニークな生体認証として、歩行は個人認証、社会保障など幅広い応用がある。
既存の歩行認識手法は空間的あるいは時空間的表現の抽出に注意を払う。
しかし、歩数列から歩数の基本的特徴である多様な運動特徴を抽出することはほとんど考えていない。
本稿では,歩行認識のための動き認識型時空間特徴学習ネットワークであるgaitmastを提案する。
浅層層,特に2経路フレームレベルの特徴抽出器を提案し,一方の経路が全体時空間的特徴を抽出し,他方の経路が動的領域に焦点をあてて運動塩分特徴を抽出する。
深層層では,細粒度空間情報に焦点をあて,モーションディテールの保存に焦点をあてた2分岐型クリップレベル特徴抽出器を設計した。
その結果、GaitMASTは個人のユニークな歩行パターンをよく保存し、時空間的特徴の堅牢性をさらに高めている。
一般的に使用されている2つのクロスプラットフォーム歩行データセットの大規模な実験結果は、既存の最先端手法よりもGaitMASTの優れた性能を示している。
CASIA-Bでは平均ランク1の精度が94.1%に達する。
特に、gaitmastは、バッグキャリーとコートの着用条件下で96.1%と88.1%のランク1アキュラティをそれぞれ達成し、第2のベストを大きなマージンで上回り、空間的変動に対する堅牢性を示す。
関連論文リスト
- GaitASMS: Gait Recognition by Adaptive Structured Spatial Representation
and Multi-Scale Temporal Aggregation [2.0444600042188448]
歩行認識は、最も有望なビデオベースの生体認証技術の一つである。
本稿では,GaitASMSと呼ばれる新しい歩行認識フレームワークを提案する。
適応的な空間表現を効果的に抽出し、多スケールの時間情報を自然に集約することができる。
論文 参考訳(メタデータ) (2023-07-29T13:03:17Z) - GADER: GAit DEtection and Recognition in the Wild [54.42997299561414]
本研究では,人間認証のためのGADERアルゴリズムを提案する。
具体的には、Double Helical Signatureを利用して人間の動きの断片を検出し、新しい歩行認識手法を取り入れている。
屋内および屋外のデータセットを用いた実験により,提案手法は歩行認識と検証のために現状よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - GaitGS: Temporal Feature Learning in Granularity and Span Dimension for Gait Recognition [34.07501669897291]
GaitGSは、時間的特徴を粒度とスパン次元の両方で同時に集約するフレームワークである。
本手法は,2つのデータセットに対して98.2%,96.5%,89.7%のランク1精度を達成し,最先端の性能を示す。
論文 参考訳(メタデータ) (2023-05-31T09:48:25Z) - DyGait: Exploiting Dynamic Representations for High-performance Gait
Recognition [35.642868929840034]
歩行認識は、歩行パターンを通して人間の身元を認識する生体計測技術である。
我々は動的特徴の抽出に焦点をあて,DyGaitという新しい高性能なフレームワークを提案する。
我々のネットワークは、GREWデータセットで71.4%、Gait3Dデータセットで66.3%、CAIA-Bデータセットで98.4%、OU-Mデータセットで98.3%の平均ランク1の精度を達成した。
論文 参考訳(メタデータ) (2023-03-27T07:36:47Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Spatio-temporal Gait Feature with Adaptive Distance Alignment [90.5842782685509]
我々は,ネットワーク構造の最適化と抽出した歩行特徴の洗練という2つの側面から,異なる被験者の歩行特徴の差を増大させようとしている。
提案手法は時空間特徴抽出(SFE)と適応距離アライメント(ADA)から構成される。
ADAは実生活における多数の未ラベルの歩行データをベンチマークとして使用し、抽出した時間的特徴を洗練し、クラス間類似度が低く、クラス内類似度が高いようにしている。
論文 参考訳(メタデータ) (2022-03-07T13:34:00Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Selective Spatio-Temporal Aggregation Based Pose Refinement System:
Towards Understanding Human Activities in Real-World Videos [8.571131862820833]
最先端のポーズ推定装置は、現実世界の無注釈ビデオにおいて、乱れと低解像度のために高品質な2Dまたは3Dポーズデータを取得するのに苦労している。
本稿では,複数の専門家のポーズ推定器によって抽出されたキーポイント位置を洗練・平滑化するSST-Aという選択的時空間アグリゲーション機構を提案する。
本研究では, Pose-Refinement System (SSTA-PRS) によって改良された骨格データが,既存の行動認識モデルの強化に有効であることを示す。
論文 参考訳(メタデータ) (2020-11-10T19:19:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。