論文の概要: GaitMM: Multi-Granularity Motion Sequence Learning for Gait Recognition
- arxiv url: http://arxiv.org/abs/2209.08470v2
- Date: Sat, 24 Jun 2023 04:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 00:47:54.390712
- Title: GaitMM: Multi-Granularity Motion Sequence Learning for Gait Recognition
- Title(参考訳): gaitmm: 歩行認識のためのマルチグラニュラ性モーションシーケンス学習
- Authors: Lei Wang, Bo Liu, Bincheng Wang, Fuqiang Yu
- Abstract要約: 歩行認識は、各身体部位の異なる周期的な動きを観察することにより、個人固有の歩行パターンを識別することを目的としている。
既存のほとんどの手法は各部分を等しく扱い、異なるステップ周波数と歩行のサンプリングレートによって引き起こされるデータの冗長性を考慮できない。
本研究では,歩行系列学習のためのマルチグラニュラリティ動作表現(GaitMM)を提案する。
- 参考スコア(独自算出の注目度): 6.877671230651998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition aims to identify individual-specific walking patterns by
observing the different periodic movements of each body part. However, most
existing methods treat each part equally and fail to account for the data
redundancy caused by the different step frequencies and sampling rates of gait
sequences. In this study, we propose a multi-granularity motion representation
network (GaitMM) for gait sequence learning. In GaitMM, we design a combined
full-body and fine-grained sequence learning module (FFSL) to explore
part-independent spatio-temporal representations. Moreover, we utilize a
frame-wise compression strategy, referred to as multi-scale motion aggregation
(MSMA), to capture discriminative information in the gait sequence. Experiments
on two public datasets, CASIA-B and OUMVLP, show that our approach reaches
state-of-the-art performances.
- Abstract(参考訳): 歩行認識は、身体部位ごとに異なる周期的な動きを観察することで、個々の歩行パターンを識別することを目的としている。
しかし、既存のほとんどの手法は各部分を等しく扱い、異なるステップ周波数と歩行シーケンスのサンプリングレートに起因するデータの冗長性を考慮できない。
本研究では,歩行系列学習のためのマルチグラニュラリティ動作表現ネットワーク(GaitMM)を提案する。
GaitMMでは、部分非依存の時空間表現を探索するために、全体および微細配列学習モジュール(FFSL)の組み合わせを設計する。
さらに,マルチスケールモーションアグリゲーション (msma) と呼ばれるフレーム単位での圧縮戦略を用いて,歩行系列における識別情報を取得する。
CASIA-BとOUMVLPの2つの公開データセットに対する実験により、我々のアプローチが最先端のパフォーマンスに達することが示された。
関連論文リスト
- An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - One-Shot Action Recognition via Multi-Scale Spatial-Temporal Skeleton
Matching [77.6989219290789]
ワンショットスケルトン行動認識は、単一のトレーニングサンプルでスケルトン行動認識モデルを学ぶことを目的としている。
本稿では,マルチスケールな時空間特徴マッチングによる骨格行動認識を行う新しい一発骨格行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T11:52:10Z) - GaitStrip: Gait Recognition via Effective Strip-based Feature
Representations and Multi-Level Framework [34.397404430838286]
本稿では,様々なレベルの歩行情報を抽出するために,GaitStripという名前のストリップベースマルチレベル歩行認識ネットワークを提案する。
具体的には、私たちの高レベルブランチは歩行シーケンスのコンテキストを探求し、低レベルブランチは詳細な姿勢変化に焦点を当てています。
我々のGaitStripは、通常の歩行条件と複雑な歩行条件の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-03-08T09:49:48Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Sequential convolutional network for behavioral pattern extraction in
gait recognition [0.7874708385247353]
個人の歩行パターンを学習するための逐次畳み込みネットワーク(SCN)を提案する。
SCNでは、時系列の中間特徴写像を理解するために行動情報抽出器(BIE)を構築している。
SCNのマルチフレームアグリゲータは、モバイル3D畳み込み層を介して、長さが不確定なシーケンス上の機能統合を実行する。
論文 参考訳(メタデータ) (2021-04-23T08:44:10Z) - Indoor Group Activity Recognition using Multi-Layered HMMs [0.0]
画像データ処理に基づくグループアクティビティ(GA)は、監視システムに重要な応用がある。
グループ活動における一連の事象の識別と分類が可能な適切な推論モデルを備えたオントロジーGARを提案する。
多層マルコフモデル(HMM)は、異なる抽象的な観測レベルを認識するために提案される。
論文 参考訳(メタデータ) (2021-01-23T22:02:12Z) - MultiBodySync: Multi-Body Segmentation and Motion Estimation via 3D Scan
Synchronization [61.015704878681795]
本稿では,3次元点雲のための多体運動分節と剛性登録フレームワークを提案する。
このマルチスキャンマルチボディ設定によって生じる2つの非自明な課題は、である。
複数の入力ポイントクラウド間の対応性とセグメンテーション一貫性の保証
新規な対象カテゴリーに適用可能なロバストな運動に基づく剛体セグメンテーションを得る。
論文 参考訳(メタデータ) (2021-01-17T06:36:28Z) - Multi-modal Fusion for Single-Stage Continuous Gesture Recognition [45.19890687786009]
テンポラル・マルチモーダル・フュージョン(TMMF)と呼ばれる単一段階連続ジェスチャー認識フレームワークを導入する。
TMMFは、単一のモデルでビデオ内の複数のジェスチャーを検出し、分類することができる。
このアプローチは、前処理のセグメンテーションステップを必要とせずに、ジェスチャーと非ジェスチャーの自然な遷移を学習する。
論文 参考訳(メタデータ) (2020-11-10T07:09:35Z) - Multi-Granularity Reference-Aided Attentive Feature Aggregation for
Video-based Person Re-identification [98.7585431239291]
ビデオベースの人物再識別は、同じ人物をビデオクリップ間でマッチングすることを目的としている。
本稿では,マルチグラニュラリティ参照属性集約モジュールMG-RAFAを提案する。
本フレームワークは,3つのベンチマークデータセット上での最先端のアブレーション性能を実現する。
論文 参考訳(メタデータ) (2020-03-27T03:49:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。