論文の概要: GaitGS: Temporal Feature Learning in Granularity and Span Dimension for Gait Recognition
- arxiv url: http://arxiv.org/abs/2305.19700v3
- Date: Tue, 18 Jun 2024 07:15:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-20 05:23:38.642949
- Title: GaitGS: Temporal Feature Learning in Granularity and Span Dimension for Gait Recognition
- Title(参考訳): GaitGS: 歩行認識のための粒度とスパン次元の時間的特徴学習
- Authors: Haijun Xiong, Yunze Deng, Bin Feng, Xinggang Wang, Wenyu Liu,
- Abstract要約: GaitGSは、時間的特徴を粒度とスパン次元の両方で同時に集約するフレームワークである。
本手法は,2つのデータセットに対して98.2%,96.5%,89.7%のランク1精度を達成し,最先端の性能を示す。
- 参考スコア(独自算出の注目度): 34.07501669897291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition, a growing field in biological recognition technology, utilizes distinct walking patterns for accurate individual identification. However, existing methods lack the incorporation of temporal information. To reach the full potential of gait recognition, we advocate for the consideration of temporal features at varying granularities and spans. This paper introduces a novel framework, GaitGS, which aggregates temporal features simultaneously in both granularity and span dimensions. Specifically, the Multi-Granularity Feature Extractor (MGFE) is designed to capture micro-motion and macro-motion information at fine and coarse levels respectively, while the Multi-Span Feature Extractor (MSFE) generates local and global temporal representations. Through extensive experiments on two datasets, our method demonstrates state-of-the-art performance, achieving Rank-1 accuracy of 98.2%, 96.5%, and 89.7% on CASIA-B under different conditions, and 97.6% on OU-MVLP. The source code will be available at https://github.com/Haijun-Xiong/GaitGS.
- Abstract(参考訳): 生物学的認識技術の発達する分野である歩行認識は、正確な個人識別のために異なる歩行パターンを利用する。
しかし,既存の手法には時間情報の導入が欠如している。
歩行認識の可能性を最大限に発揮するために,様々な粒度・幅の時間的特徴を考慮した検討を提唱する。
本稿では,時間的特徴を粒度とスパン次元の両方で同時に集約する新しいフレームワークであるGaitGSを紹介する。
具体的には、Multi-Granularity Feature Extractor (MGFE) は、微動情報とマクロモーション情報をそれぞれ微動レベルと粗いレベルでキャプチャするために設計され、Multi-Span Feature Extractor (MSFE) は局所的および大域的時間的表現を生成する。
2つのデータセットに関する広範な実験を通じて、我々の手法は最先端の性能を示し、CASIA-Bでは98.2%、96.5%、89.7%、OU-MVLPでは97.6%である。
ソースコードはhttps://github.com/Haijun-Xiong/GaitGSで入手できる。
関連論文リスト
- GaitASMS: Gait Recognition by Adaptive Structured Spatial Representation
and Multi-Scale Temporal Aggregation [2.0444600042188448]
歩行認識は、最も有望なビデオベースの生体認証技術の一つである。
本稿では,GaitASMSと呼ばれる新しい歩行認識フレームワークを提案する。
適応的な空間表現を効果的に抽出し、多スケールの時間情報を自然に集約することができる。
論文 参考訳(メタデータ) (2023-07-29T13:03:17Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - GaitMAST: Motion-Aware Spatio-Temporal Feature Learning Network for
Cross-View Gait Recognition [32.76653659564304]
動作認識機能の可能性を解き放つGaitMASTを提案する。
GitMASTは個人のユニークなウォーキングパターンをよく保存する。
平均ランク1の精度は98.1%である。
論文 参考訳(メタデータ) (2022-10-21T08:42:00Z) - GaitTAKE: Gait Recognition by Temporal Attention \\and Keypoint-guided
Embedding [35.91172547755888]
我々は、時間的注意とキーポイント誘導埋め込み(GaitTAKE)と呼ばれる新しい歩行認識フレームワークを提案する。
実験の結果,提案手法は歩行認識において,98.0%(正常),97.5%(バッグ),92.2%(コート)の新たなSOTAを実現することがわかった。
論文 参考訳(メタデータ) (2022-07-07T22:38:54Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - Multi-scale Context-aware Network with Transformer for Gait Recognition [35.521073630044434]
歩行認識のための変圧器(MCAT)を用いたマルチスケールコンテキスト認識ネットワークを提案する。
MCATは3つの尺度にまたがって時間的特徴を生成し、局所的・グローバル的な視点からコンテキスト情報を用いて適応的に集約する。
時間的操作による空間的特徴の破損を修復するために、MCATは、有能な空間的特徴学習(SSFL)モジュールを組み込んでいる。
論文 参考訳(メタデータ) (2022-04-07T07:47:21Z) - Spatio-temporal Gait Feature with Adaptive Distance Alignment [90.5842782685509]
我々は,ネットワーク構造の最適化と抽出した歩行特徴の洗練という2つの側面から,異なる被験者の歩行特徴の差を増大させようとしている。
提案手法は時空間特徴抽出(SFE)と適応距離アライメント(ADA)から構成される。
ADAは実生活における多数の未ラベルの歩行データをベンチマークとして使用し、抽出した時間的特徴を洗練し、クラス間類似度が低く、クラス内類似度が高いようにしている。
論文 参考訳(メタデータ) (2022-03-07T13:34:00Z) - Learning Multi-Granular Hypergraphs for Video-Based Person
Re-Identification [110.52328716130022]
ビデオベースの人物識別(re-ID)はコンピュータビジョンにおいて重要な研究課題である。
MGH(Multi-Granular Hypergraph)という新しいグラフベースのフレームワークを提案する。
MARSの90.0%のトップ-1精度はMGHを用いて達成され、最先端のスキームよりも優れていた。
論文 参考訳(メタデータ) (2021-04-30T11:20:02Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - SelfGait: A Spatiotemporal Representation Learning Method for
Self-supervised Gait Recognition [24.156710529672775]
歩行認識は、歩行が距離で認識することができるユニークな生体測定機能であるため、人間の識別に重要な役割を果たします。
既存の歩行認識法は歩行系列から歩行特徴を異なる方法で学習することができるが、歩行認識の性能はラベル付きデータに苦しむ。
本研究では, 事前学習プロセスとして, 多種多様でラベルなしの歩行データを活用した自己監視歩行認識手法であるSelfGaitを提案する。
論文 参考訳(メタデータ) (2021-03-27T05:15:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。