論文の概要: Watch Where You Move: Region-aware Dynamic Aggregation and Excitation for Gait Recognition
- arxiv url: http://arxiv.org/abs/2510.16541v1
- Date: Sat, 18 Oct 2025 15:36:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.030694
- Title: Watch Where You Move: Region-aware Dynamic Aggregation and Excitation for Gait Recognition
- Title(参考訳): 歩いた場所を見る:地域を意識したダイナミックアグリゲーションと、歩行認識のための励起
- Authors: Binyuan Huang, Yongdong Luo, Xianda Guo, Xiawu Zheng, Zheng Zhu, Jiahui Pan, Chengju Zhou,
- Abstract要約: GaitRDAEは、自動的に動き領域を検索し、適応的な時間スケールを割り当て、対応する注意を向けるフレームワークである。
実験の結果、GaitRDAEはいくつかのベンチマークデータセットで最先端のパフォーマンスを達成することがわかった。
- 参考スコア(独自算出の注目度): 55.52723195212868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based gait recognition has achieved great success in various applications. The key to accurate gait recognition lies in considering the unique and diverse behavior patterns in different motion regions, especially when covariates affect visual appearance. However, existing methods typically use predefined regions for temporal modeling, with fixed or equivalent temporal scales assigned to different types of regions, which makes it difficult to model motion regions that change dynamically over time and adapt to their specific patterns. To tackle this problem, we introduce a Region-aware Dynamic Aggregation and Excitation framework (GaitRDAE) that automatically searches for motion regions, assigns adaptive temporal scales and applies corresponding attention. Specifically, the framework includes two core modules: the Region-aware Dynamic Aggregation (RDA) module, which dynamically searches the optimal temporal receptive field for each region, and the Region-aware Dynamic Excitation (RDE) module, which emphasizes the learning of motion regions containing more stable behavior patterns while suppressing attention to static regions that are more susceptible to covariates. Experimental results show that GaitRDAE achieves state-of-the-art performance on several benchmark datasets.
- Abstract(参考訳): ディープラーニングに基づく歩行認識は、様々なアプリケーションで大きな成功を収めている。
正確な歩行認識の鍵は、異なる動き領域におけるユニークで多様な行動パターンを考えることである。
しかし、既存の手法では、時間とともに動的に変化し、特定のパターンに適応する動き領域をモデル化することは困難である。
この問題に対処するために、動作領域を自動的に検索し、適応時間尺度を割り当て、対応する注意を向ける領域対応動的集約・励起フレームワーク(GaitRDAE)を導入する。
具体的には、各領域に対して最適な時間的受容領域を動的に検索するRerea-aware Dynamic Aggregation (RDA)モジュールと、より安定した動作パターンを含む動き領域の学習を強調するRerea-aware Dynamic Excitation (RDE)モジュールの2つのコアモジュールを含む。
実験の結果、GaitRDAEはいくつかのベンチマークデータセットで最先端のパフォーマンスを達成することがわかった。
関連論文リスト
- ADD-SLAM: Adaptive Dynamic Dense SLAM with Gaussian Splatting [12.846353008321394]
ADD-SLAM: ガウス分割に基づくAdaptive Dynamic Dense SLAMフレームワーク。
シーン整合性解析に基づく適応的動的識別機構を設計する。
事前に定義されたセマンティックなカテゴリは必要とせず、シーンのダイナミクスを適応的に発見する。
論文 参考訳(メタデータ) (2025-05-26T02:17:17Z) - Vision-Language Models Assisted Unsupervised Video Anomaly Detection [3.1095294567873606]
異常サンプルは教師なし学習手法における重要な課題を示す。
提案手法では,大規模言語モデルの推論能力を活用したモーダル事前学習モデルを用いる。
本手法は,高次元視覚特徴を低次元意味的特徴にマッピングすることにより,教師なし異常検出の解釈可能性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-09-21T11:48:54Z) - Prompt-Driven Dynamic Object-Centric Learning for Single Domain
Generalization [61.64304227831361]
単一ドメインの一般化は、単一のソースドメインデータからモデルを学び、他の見えないターゲットドメイン上での一般的なパフォーマンスを達成することを目的としている。
本稿では,画像の複雑さの変化に対応することを目的とした,素早い学習に基づく動的物体中心知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T16:16:51Z) - Urban Regional Function Guided Traffic Flow Prediction [117.75679676806296]
メタデータとして各領域の機能を利用するPOI-MetaBlockという新しいモジュールを提案する。
我々のモジュールはトラフィックフロー予測の性能を大幅に改善し、メタデータを使用する最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-03-17T06:03:49Z) - RDFNet: Regional Dynamic FISTA-Net for Spectral Snapshot Compressive
Imaging [11.627511305913476]
本稿では,FISTA(Fast Iterative Shrinkage-Thresholding Algorithm)を用いた局所的動的手法を提案する。
次に、このプロセスをRDFNetと呼ばれる階層的な動的深層ネットワークに展開する。
提案する地域動的アーキテクチャは,画素単位で適切な縮小スケールを学習することができる。
論文 参考訳(メタデータ) (2023-02-06T01:13:13Z) - MSA-GCN:Multiscale Adaptive Graph Convolution Network for Gait Emotion
Recognition [6.108523790270448]
本稿では,感情認識のためのマルチスケール適応グラフ畳み込みネットワーク(MSA-GCN)を提案する。
本モデルでは, 適応的選択的時空間畳み込みを設計し, コンボリューションカーネルを動的に選択し, 異なる感情のソフト・テンポラルな特徴を得る。
従来の最先端手法と比較して,提案手法は2つの公開データセット上で最高の性能を実現する。
論文 参考訳(メタデータ) (2022-09-19T13:07:16Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - Learning Self-Similarity in Space and Time as Generalized Motion for
Action Recognition [42.175450800733785]
ビデオ自己相似性(STSS)に基づくリッチな動き表現を提案する。
stssのボリューム全体を活用し、モデルに効果的なモーション表現を抽出させるようにしています。
SELFYと呼ばれる提案された神経ブロックは、追加の監督なしに簡単に神経アーキテクチャに挿入し、エンドツーエンドで訓練することができます。
論文 参考訳(メタデータ) (2021-02-14T07:32:55Z) - TAM: Temporal Adaptive Module for Video Recognition [60.83208364110288]
時間適応モジュール(bf TAM)は、自身の特徴マップに基づいてビデオ固有の時間カーネルを生成する。
Kinetics-400およびSomethingデータセットの実験は、我々のTAMが他の時間的モデリング手法より一貫して優れていることを示した。
論文 参考訳(メタデータ) (2020-05-14T08:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。