論文の概要: Context-Sensitive Temporal Feature Learning for Gait Recognition
- arxiv url: http://arxiv.org/abs/2204.03270v1
- Date: Thu, 7 Apr 2022 07:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:55:21.982393
- Title: Context-Sensitive Temporal Feature Learning for Gait Recognition
- Title(参考訳): 歩行認識のための文脈感応型時間特徴学習
- Authors: Xiaohu Huang, Duowang Zhu, Xinggang Wang, Hao Wang, Bo Yang, Botao He,
Wenyu Liu, and Bin Feng
- Abstract要約: 本稿では,歩行認識のための時間的特徴学習ネットワークを提案する。
CSTLは3つの尺度で時間的特徴を生成し、文脈情報に基づいてそれらを適応的に集約する。
私たちの知る限りでは、歩行認識にトランスフォーマーを採用する最初の作品です。
- 参考スコア(独自算出の注目度): 29.47530454720236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although gait recognition has drawn increasing research attention recently,
it remains challenging to learn discriminative temporal representation, since
the silhouette differences are quite subtle in spatial domain. Inspired by the
observation that human can distinguish gaits of different subjects by
adaptively focusing on temporal clips with different time scales, we propose a
context-sensitive temporal feature learning (CSTL) network for gait
recognition. CSTL produces temporal features in three scales, and adaptively
aggregates them according to the contextual information from local and global
perspectives. Specifically, CSTL contains an adaptive temporal aggregation
module that subsequently performs local relation modeling and global relation
modeling to fuse the multi-scale features. Besides, in order to remedy the
spatial feature corruption caused by temporal operations, CSTL incorporates a
salient spatial feature learning (SSFL) module to select groups of
discriminative spatial features. Particularly, we utilize transformers to
implement the global relation modeling and the SSFL module. To the best of our
knowledge, this is the first work that adopts transformer in gait recognition.
Extensive experiments conducted on three datasets demonstrate the
state-of-the-art performance. Concretely, we achieve rank-1 accuracies of
98.7%, 96.2% and 88.7% under normal-walking, bag-carrying and coat-wearing
conditions on CASIA-B, 97.5% on OU-MVLP and 50.6% on GREW.
- Abstract(参考訳): 歩行認識は近年研究の注目を集めているが,空間領域ではシルエットの違いが非常に微妙であるため,識別的時間的表現を学習することは依然として困難である。
異なる時間スケールの時間的クリップに適応的に焦点を合わせることで、人間が異なる被験者の歩行を区別できるという観察に着想を得て、歩行認識のための文脈依存型時間的特徴学習(CSTL)ネットワークを提案する。
CSTLは3つの尺度で時間的特徴を生成し、局所的およびグローバル的視点からコンテキスト情報に基づいて適応的にそれらを集約する。
具体的には、CSTLは適応時間アグリゲーションモジュールを含み、その後、局所関係モデリングとグローバル関係モデリングを行い、マルチスケールの特徴を融合させる。
また,時間的操作による空間的特徴の破損を解消するため,CSTLは空間的特徴を識別するグループを選択するために,空間的特徴学習(SSFL)モジュールを組み込んでいる。
特に,グローバルリレーションモデリングとssflモジュールの実装にトランスフォーマーを利用する。
私たちの知る限りでは、これは歩行認識にtransformerを採用する最初の仕事です。
3つのデータセットで広範な実験が行われ、最先端のパフォーマンスが実証された。
具体的には,CASIA-Bでは98.7%,96.2%,88.7%,OU-MVLPでは97.5%,GREWでは50.6%である。
関連論文リスト
- A Multi-Stage Adaptive Feature Fusion Neural Network for Multimodal Gait
Recognition [15.080096318551346]
多くの既存の歩行認識アルゴリズムは単調であり、少数のマルチモーダル歩行認識アルゴリズムは一度だけマルチモーダル融合を行う。
特徴抽出プロセスの異なる段階において多段階の融合を行う多段階特徴融合戦略(MSFFS)を提案する。
また,シルエットと骨格のセマンティックな関連性を考慮したAFFM(Adaptive Feature fusion Module)を提案する。
論文 参考訳(メタデータ) (2023-12-22T03:25:15Z) - Learning multi-domain feature relation for visible and Long-wave
Infrared image patch matching [39.88037892637296]
我々は、VL-CMIMと呼ばれる最大の可視・長波長赤外線画像パッチマッチングデータセットを提示する。
さらに,マルチドメイン特徴関連学習ネットワーク(MD-FRN)を提案する。
論文 参考訳(メタデータ) (2023-08-09T11:23:32Z) - GaitASMS: Gait Recognition by Adaptive Structured Spatial Representation
and Multi-Scale Temporal Aggregation [2.0444600042188448]
歩行認識は、最も有望なビデオベースの生体認証技術の一つである。
本稿では,GaitASMSと呼ばれる新しい歩行認識フレームワークを提案する。
適応的な空間表現を効果的に抽出し、多スケールの時間情報を自然に集約することができる。
論文 参考訳(メタデータ) (2023-07-29T13:03:17Z) - MetaGait: Learning to Learn an Omni Sample Adaptive Representation for
Gait Recognition [16.26377062742576]
そこで我々は,Omniサンプル適応表現を学習するMetaGaitを開発した。
プロセス全体にわたってメタ知識を活用し、メタトリプルアテンションとメタテンポラルプールを提示します。
大規模な実験によって提案されたMetaGaitの最先端性能が実証された。
論文 参考訳(メタデータ) (2023-06-06T06:53:05Z) - GaitGS: Temporal Feature Learning in Granularity and Span Dimension for Gait Recognition [34.07501669897291]
GaitGSは、時間的特徴を粒度とスパン次元の両方で同時に集約するフレームワークである。
本手法は,2つのデータセットに対して98.2%,96.5%,89.7%のランク1精度を達成し,最先端の性能を示す。
論文 参考訳(メタデータ) (2023-05-31T09:48:25Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - Adaptive Affinity for Associations in Multi-Target Multi-Camera Tracking [53.668757725179056]
本稿では,MTMCTにおけるアフィニティ推定を対応する対応範囲に適応させるための,単純かつ効果的な手法を提案する。
すべての外見の変化に対処する代わりに、データアソシエーション中に出現する可能性のあるものに特化したアフィニティメトリックを調整します。
ミスマッチを最小限に抑えるため、アダプティブアフィニティモジュールはグローバルなre-ID距離を大幅に改善する。
論文 参考訳(メタデータ) (2021-12-14T18:59:11Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - MST: Masked Self-Supervised Transformer for Visual Representation [52.099722121603506]
Transformerは自然言語処理(NLP)における自己教師型事前学習に広く利用されている。
我々は、画像の局所的コンテキストを明示的にキャプチャできる、MSTと呼ばれる新しいMasked Self-supervised Transformerアプローチを提案する。
MSTは、線形評価による300エポック事前トレーニングのみを使用して、DeiT-Sで76.9%のTop-1精度を達成する。
論文 参考訳(メタデータ) (2021-06-10T11:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。