論文の概要: Hierarchical Spatio-Temporal Representation Learning for Gait
Recognition
- arxiv url: http://arxiv.org/abs/2307.09856v1
- Date: Wed, 19 Jul 2023 09:30:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 14:36:48.327662
- Title: Hierarchical Spatio-Temporal Representation Learning for Gait
Recognition
- Title(参考訳): 歩行認識のための階層的時空間表現学習
- Authors: Lei Wang, Bo Liu, Fangfang Liang, Bincheng Wang
- Abstract要約: 歩行認識は、個人を独自の歩行スタイルで識別する生体計測技術である。
粗いものから細かいものまで歩行特徴を抽出する階層的時間的表現学習フレームワークを提案する。
本手法は,モデル精度と複雑性の適切なバランスを維持しつつ,最先端の手法よりも優れる。
- 参考スコア(独自算出の注目度): 6.877671230651998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition is a biometric technique that identifies individuals by
their unique walking styles, which is suitable for unconstrained environments
and has a wide range of applications. While current methods focus on exploiting
body part-based representations, they often neglect the hierarchical
dependencies between local motion patterns. In this paper, we propose a
hierarchical spatio-temporal representation learning (HSTL) framework for
extracting gait features from coarse to fine. Our framework starts with a
hierarchical clustering analysis to recover multi-level body structures from
the whole body to local details. Next, an adaptive region-based motion
extractor (ARME) is designed to learn region-independent motion features. The
proposed HSTL then stacks multiple ARMEs in a top-down manner, with each ARME
corresponding to a specific partition level of the hierarchy. An adaptive
spatio-temporal pooling (ASTP) module is used to capture gait features at
different levels of detail to perform hierarchical feature mapping. Finally, a
frame-level temporal aggregation (FTA) module is employed to reduce redundant
information in gait sequences through multi-scale temporal downsampling.
Extensive experiments on CASIA-B, OUMVLP, GREW, and Gait3D datasets demonstrate
that our method outperforms the state-of-the-art while maintaining a reasonable
balance between model accuracy and complexity.
- Abstract(参考訳): 歩行認識は、独特な歩行スタイルで個人を識別する生体計測技術であり、制約のない環境に適したものであり、幅広い用途がある。
現在の手法は身体の部分に基づく表現の活用に重点を置いているが、局所的な動きパターン間の階層的依存関係を無視することが多い。
本稿では,階層型時空間表現学習(HSTL)フレームワークを提案する。
我々のフレームワークは階層的なクラスタリング分析から始まり、体全体から局所的な詳細まで多層体構造を復元する。
次に、適応型領域ベースモーション抽出器(ARME)を用いて、領域に依存しない動作特徴を学習する。
提案されたhstlはトップダウン方式で複数のアームを積み重ね、各アームは階層の特定の分割レベルに対応する。
適応時空間プーリング(ASTP)モジュールは、階層的な特徴マッピングを実行するために、様々な詳細レベルで歩行特徴をキャプチャするために使用される。
最後に、マルチスケールの時間ダウンサンプリングにより、歩行シーケンスの冗長な情報を低減するためにフレームレベル時間アグリゲーション(FTA)モジュールを用いる。
CASIA-B, OUMVLP, GREW, Gait3Dデータセットの大規模な実験により, モデル精度と複雑性のバランスを保ちながら, 我々の手法が最先端の手法よりも優れていることが示された。
関連論文リスト
- Multi-Scale Spatial-Temporal Self-Attention Graph Convolutional Networks for Skeleton-based Action Recognition [0.0]
本稿では,マルチスケール空間時間自己注意(MSST)-GCNという自己注意型GCNハイブリッドモデルを提案する。
適応トポロジを持つ空間自己保持モジュールを用いて、異なる身体部分間のフレーム内相互作用を理解するとともに、時間的自己保持モジュールを用いてノードのフレーム間の相関関係を調べる。
論文 参考訳(メタデータ) (2024-04-03T10:25:45Z) - HiH: A Multi-modal Hierarchy in Hierarchy Network for Unconstrained Gait Recognition [3.431054404120758]
本稿では,階層型ネットワーク(HiH)におけるマルチモーダル階層(Hierarchy in Hierarchy Network)について述べる。
HiH は階層的なゲイト・デコンポザ・モジュールを用いてシルエットデータから一般的なゲイト・パターンの深度的およびモジュール内階層的な検証を行う主ブランチを特徴とする。
2次元関節配列に基づく補助枝は、歩行解析の空間的側面と時間的側面を豊かにする。
論文 参考訳(メタデータ) (2023-11-19T03:25:14Z) - Local-Global Temporal Difference Learning for Satellite Video
Super-Resolution [55.69322525367221]
本稿では,時間的差分を効果的かつ効果的な時間的補償に利用することを提案する。
フレーム内における局所的・大域的時間的情報を完全に活用するために,短期・長期的時間的相違を体系的にモデル化した。
5つの主流ビデオ衛星に対して行われた厳密な客観的および主観的評価は、我々の手法が最先端のアプローチに対して好適に機能することを実証している。
論文 参考訳(メタデータ) (2023-04-10T07:04:40Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Multi-Scale Spatial Temporal Graph Convolutional Network for
Skeleton-Based Action Recognition [13.15374205970988]
本稿では,マルチスケール空間グラフ畳み込み (MS-GC) モジュールとマルチスケール時間グラフ畳み込み (MT-GC) モジュールを提案する。
MS-GCおよびMT-GCモジュールは対応する局所グラフ畳み込みをサブグラフ畳み込みの集合に分解し、階層的残差アーキテクチャを形成する。
本稿では,マルチスケールな時空間グラフ畳み込みネットワーク(MST-GCN)を提案する。
論文 参考訳(メタデータ) (2022-06-27T03:17:33Z) - GaitStrip: Gait Recognition via Effective Strip-based Feature
Representations and Multi-Level Framework [34.397404430838286]
本稿では,様々なレベルの歩行情報を抽出するために,GaitStripという名前のストリップベースマルチレベル歩行認識ネットワークを提案する。
具体的には、私たちの高レベルブランチは歩行シーケンスのコンテキストを探求し、低レベルブランチは詳細な姿勢変化に焦点を当てています。
我々のGaitStripは、通常の歩行条件と複雑な歩行条件の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-03-08T09:49:48Z) - Spatio-temporal Relation Modeling for Few-shot Action Recognition [100.3999454780478]
本稿では,高次時間表現を同時に学習しながら,クラス固有の特徴の識別性を向上する数ショットアクション認識フレームワークSTRMを提案する。
本手法は,本研究でもっとも優れた手法に比べて,分類精度が3.5%向上した。
論文 参考訳(メタデータ) (2021-12-09T18:59:14Z) - Multi-Scale Semantics-Guided Neural Networks for Efficient
Skeleton-Based Human Action Recognition [140.18376685167857]
スケルトンに基づく行動認識には,単純なマルチスケールセマンティクス誘導ニューラルネットワークが提案されている。
MS-SGNは、NTU60、NTU120、SYSUデータセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-11-07T03:50:50Z) - Video Is Graph: Structured Graph Module for Video Action Recognition [34.918667614077805]
ビデオシーケンスをグラフに変換して,時間的フレーム間の直接的な長期的依存関係を求める。
特に、SGMは各ノードの隣人を複数の時間領域に分割し、グローバルな構造情報を抽出する。
報告された性能と分析により、SGMは計算複雑性を小さくして優れた精度を達成できることを示した。
論文 参考訳(メタデータ) (2021-10-12T11:27:29Z) - Spatio-Temporal Representation Factorization for Video-based Person
Re-Identification [55.01276167336187]
本稿では、re-IDのための時空間表現分解モジュール(STRF)を提案する。
STRFはフレキシブルな新しい計算ユニットであり、re-IDのための既存のほとんどの3D畳み込みニューラルネットワークアーキテクチャと併用することができる。
実験により、STRFは様々なベースラインアーキテクチャの性能を向上し、新しい最先端の成果を示す。
論文 参考訳(メタデータ) (2021-07-25T19:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。