論文の概要: GaitFM: Fine-grained Motion Representation for Gait Recognition
- arxiv url: http://arxiv.org/abs/2209.08470v1
- Date: Sun, 18 Sep 2022 04:07:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:11:09.826366
- Title: GaitFM: Fine-grained Motion Representation for Gait Recognition
- Title(参考訳): GaitFM: 歩行認識のための微粒な動き表現
- Authors: Lei Wang, Fangfang Liang, Bincheng Wang, Bo Liu
- Abstract要約: 本稿では、歩行認識性能を向上させるために、微細な動き表現ネットワーク(GaitFM)を提案する。
第一に、FPSLモジュールは部分独立時間表現を探索するために設計されている。
第二に、局所運動集約(LMA)と呼ばれるフレームワイド圧縮戦略は、動きの変動を高めるために用いられる。
- 参考スコア(独自算出の注目度): 6.877671230651997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition aims at identifying individual-specific walking patterns,
which is highly dependent on the observation of the different periodic
movements of each body part. However, most existing methods treat each part
equally and neglect the data redundancy due to the high sampling rate of gait
sequences. In this work, we propose a fine-grained motion representation
network (GaitFM) to improve gait recognition performance in three aspects.
First, a fine-grained part sequence learning (FPSL) module is designed to
explore part-independent spatio-temporal representations. Secondly, a
frame-wise compression strategy, called local motion aggregation (LMA), is used
to enhance motion variations. Finally, a weighted generalized mean pooling
(WGeM) layer works to adaptively keep more discriminative information in the
spatial downsampling. Experiments on two public datasets, CASIA-B and OUMVLP,
show that our approach reaches state-of-the-art performances. On the CASIA-B
dataset, our method achieves rank-1 accuracies of 98.0%, 95.7% and 87.9% for
normal walking, walking with a bag and walking with a coat, respectively. On
the OUMVLP dataset, our method achieved a rank-1 accuracy of 90.5%.
- Abstract(参考訳): 歩行認識は,各部位の周期的な動きの観察に大きく依存する個々の歩行パターンを特定することを目的としている。
しかし,既存の手法では,歩数列のサンプリング率が高いため,各部分を等しく扱い,データの冗長性を無視している。
本研究では,3面の歩行認識性能を向上させるために,微細な動き表現ネットワーク(GaitFM)を提案する。
まず、部分独立な時空間表現を探索するためにFPSLモジュールを設計する。
第二に、局所運動集約(LMA)と呼ばれるフレームワイド圧縮戦略は、動きの変動を高めるために用いられる。
最後に、重み付き一般化平均プーリング(wgem)層は、空間ダウンサンプリングにおいてより識別可能な情報を適応的に保持する。
CASIA-BとOUMVLPの2つの公開データセットに対する実験により、我々のアプローチが最先端のパフォーマンスに達することが示された。
CASIA-Bデータセットでは,通常の歩行では98.0%,95.7%,87.9%の順に,バッグで歩行し,コートで歩行する。
OUMVLPデータセットではランク1の精度が90.5%に達した。
関連論文リスト
- An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - One-Shot Action Recognition via Multi-Scale Spatial-Temporal Skeleton
Matching [77.6989219290789]
ワンショットスケルトン行動認識は、単一のトレーニングサンプルでスケルトン行動認識モデルを学ぶことを目的としている。
本稿では,マルチスケールな時空間特徴マッチングによる骨格行動認識を行う新しい一発骨格行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T11:52:10Z) - GaitStrip: Gait Recognition via Effective Strip-based Feature
Representations and Multi-Level Framework [34.397404430838286]
本稿では,様々なレベルの歩行情報を抽出するために,GaitStripという名前のストリップベースマルチレベル歩行認識ネットワークを提案する。
具体的には、私たちの高レベルブランチは歩行シーケンスのコンテキストを探求し、低レベルブランチは詳細な姿勢変化に焦点を当てています。
我々のGaitStripは、通常の歩行条件と複雑な歩行条件の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-03-08T09:49:48Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Sequential convolutional network for behavioral pattern extraction in
gait recognition [0.7874708385247353]
個人の歩行パターンを学習するための逐次畳み込みネットワーク(SCN)を提案する。
SCNでは、時系列の中間特徴写像を理解するために行動情報抽出器(BIE)を構築している。
SCNのマルチフレームアグリゲータは、モバイル3D畳み込み層を介して、長さが不確定なシーケンス上の機能統合を実行する。
論文 参考訳(メタデータ) (2021-04-23T08:44:10Z) - Indoor Group Activity Recognition using Multi-Layered HMMs [0.0]
画像データ処理に基づくグループアクティビティ(GA)は、監視システムに重要な応用がある。
グループ活動における一連の事象の識別と分類が可能な適切な推論モデルを備えたオントロジーGARを提案する。
多層マルコフモデル(HMM)は、異なる抽象的な観測レベルを認識するために提案される。
論文 参考訳(メタデータ) (2021-01-23T22:02:12Z) - MultiBodySync: Multi-Body Segmentation and Motion Estimation via 3D Scan
Synchronization [61.015704878681795]
本稿では,3次元点雲のための多体運動分節と剛性登録フレームワークを提案する。
このマルチスキャンマルチボディ設定によって生じる2つの非自明な課題は、である。
複数の入力ポイントクラウド間の対応性とセグメンテーション一貫性の保証
新規な対象カテゴリーに適用可能なロバストな運動に基づく剛体セグメンテーションを得る。
論文 参考訳(メタデータ) (2021-01-17T06:36:28Z) - Multi-modal Fusion for Single-Stage Continuous Gesture Recognition [45.19890687786009]
テンポラル・マルチモーダル・フュージョン(TMMF)と呼ばれる単一段階連続ジェスチャー認識フレームワークを導入する。
TMMFは、単一のモデルでビデオ内の複数のジェスチャーを検出し、分類することができる。
このアプローチは、前処理のセグメンテーションステップを必要とせずに、ジェスチャーと非ジェスチャーの自然な遷移を学習する。
論文 参考訳(メタデータ) (2020-11-10T07:09:35Z) - Multi-Granularity Reference-Aided Attentive Feature Aggregation for
Video-based Person Re-identification [98.7585431239291]
ビデオベースの人物再識別は、同じ人物をビデオクリップ間でマッチングすることを目的としている。
本稿では,マルチグラニュラリティ参照属性集約モジュールMG-RAFAを提案する。
本フレームワークは,3つのベンチマークデータセット上での最先端のアブレーション性能を実現する。
論文 参考訳(メタデータ) (2020-03-27T03:49:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。