論文の概要: It Takes Two: Accurate Gait Recognition in the Wild via Cross-granularity Alignment
- arxiv url: http://arxiv.org/abs/2411.10742v1
- Date: Sat, 16 Nov 2024 08:54:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:33:28.445122
- Title: It Takes Two: Accurate Gait Recognition in the Wild via Cross-granularity Alignment
- Title(参考訳): クロスグラニュラリティアライメントによる野生での正確な歩行認識には2つの方法がある
- Authors: Jinkai Zheng, Xinchen Liu, Boyue Zhang, Chenggang Yan, Jiyong Zhang, Wu Liu, Yongdong Zhang,
- Abstract要約: 本稿では,XGait という新しい粒度アライメント歩行認識手法を提案する。
この目的を達成するために、XGaitはまず2つのバックボーンエンコーダの分岐を含み、シルエットシーケンスとパーシングシーケンスを2つの潜在空間にマッピングする。
2つの大規模な歩行データセットの総合的な実験では、ランク1の精度が80.5%、CCPGが88.3%である。
- 参考スコア(独自算出の注目度): 72.75844404617959
- License:
- Abstract: Existing studies for gait recognition primarily utilized sequences of either binary silhouette or human parsing to encode the shapes and dynamics of persons during walking. Silhouettes exhibit accurate segmentation quality and robustness to environmental variations, but their low information entropy may result in sub-optimal performance. In contrast, human parsing provides fine-grained part segmentation with higher information entropy, but the segmentation quality may deteriorate due to the complex environments. To discover the advantages of silhouette and parsing and overcome their limitations, this paper proposes a novel cross-granularity alignment gait recognition method, named XGait, to unleash the power of gait representations of different granularity. To achieve this goal, the XGait first contains two branches of backbone encoders to map the silhouette sequences and the parsing sequences into two latent spaces, respectively. Moreover, to explore the complementary knowledge across the features of two representations, we design the Global Cross-granularity Module (GCM) and the Part Cross-granularity Module (PCM) after the two encoders. In particular, the GCM aims to enhance the quality of parsing features by leveraging global features from silhouettes, while the PCM aligns the dynamics of human parts between silhouette and parsing features using the high information entropy in parsing sequences. In addition, to effectively guide the alignment of two representations with different granularity at the part level, an elaborate-designed learnable division mechanism is proposed for the parsing features. Comprehensive experiments on two large-scale gait datasets not only show the superior performance of XGait with the Rank-1 accuracy of 80.5% on Gait3D and 88.3% CCPG but also reflect the robustness of the learned features even under challenging conditions like occlusions and cloth changes.
- Abstract(参考訳): 歩行認識の既存の研究は、歩行中の人の形状や動態を符号化するために、主に二分シルエットまたは人間のパーシングのシーケンスを利用していた。
シルエットは正確なセグメンテーション品質と環境変動に対する堅牢性を示すが、その低情報エントロピーは準最適性能をもたらす可能性がある。
対照的に、人間のパーシングは、高い情報エントロピーを持つきめ細かい部分のセグメンテーションを提供するが、複雑な環境のためにセグメンテーションの品質は劣化する可能性がある。
シルエットの利点を発見し,その限界を克服するために,異なる粒度の歩行表現の力を解き放つために,XGaitと呼ばれる新しい粒度アライメント歩行認識法を提案する。
この目的を達成するために、XGaitはまず2つのバックボーンエンコーダの分岐を含み、それぞれシルエットシーケンスとパーシングシーケンスを2つの潜在空間にマッピングする。
さらに,2つの表現の特徴の相補的な知識を探索するために,2つのエンコーダの後にグローバルクロスグラニュラリティモジュール (GCM) と部分クロスグラニュラリティモジュール (PCM) を設計する。
特に、GCMは、シルエットからグローバルな特徴を活用することにより、解析機能の質を高めることを目的としており、PCMは、解析シーケンスにおける高情報エントロピーを用いて、シルエットとパーシング特徴の間の人間の部分のダイナミクスを調整している。
さらに,部分レベルでの粒度の異なる2つの表現のアライメントを効果的に導くために,解析機能に対して精巧に設計された学習可能な分割機構を提案する。
2つの大規模な歩行データセットの総合的な実験は、XGaitの80.5%のランク1の精度と88.3%のCCPGの精度を示すだけでなく、オクルージョンや布の変化のような困難な条件下であっても、学習された特徴の堅牢性も反映している。
関連論文リスト
- GaitMA: Pose-guided Multi-modal Feature Fusion for Gait Recognition [26.721242606715354]
歩行認識は、歩行パターンを通して人間の身元を認識する生体計測技術である。
我々は、Gait Multi-model Aggregation Network (GaitMA)と呼ばれる新しい歩行認識フレームワークを提案する。
まず, 2つのCNN特徴抽出器を用いて, シルエットと骨格の特徴を抽出した。
論文 参考訳(メタデータ) (2024-07-20T09:05:17Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - GaitContour: Efficient Gait Recognition based on a Contour-Pose Representation [38.39173742709181]
歩行認識は、外見情報ではなく歩行パターンに基づいて、被験者をしっかりと識別する約束を持っている。
本研究では,身体形状と身体部分情報の両方をコンパクトに表現する,ポイントベースコントゥール・ポース表現を提案する。
さらに、この斬新な表現を活用するために、GaitContourと呼ばれるローカル・グローバル・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-27T17:06:25Z) - HiH: A Multi-modal Hierarchy in Hierarchy Network for Unconstrained Gait Recognition [3.431054404120758]
本稿では,階層型ネットワーク(HiH)におけるマルチモーダル階層(Hierarchy in Hierarchy Network)について述べる。
HiH は階層的なゲイト・デコンポザ・モジュールを用いてシルエットデータから一般的なゲイト・パターンの深度的およびモジュール内階層的な検証を行う主ブランチを特徴とする。
2次元関節配列に基づく補助枝は、歩行解析の空間的側面と時間的側面を豊かにする。
論文 参考訳(メタデータ) (2023-11-19T03:25:14Z) - Parsing is All You Need for Accurate Gait Recognition in the Wild [51.206166843375364]
本稿では,GPS(Gait Parsing Sequence)という新しい歩行表現を提案する。
GPSは、ビデオフレームから抽出された微細な人間のセグメンテーションのシーケンスなので、より高い情報エントロピーを持つ。
また,ParsingGaitという,新しいパーシングに基づく歩行認識フレームワークを提案する。
実験結果から,GPS表現による精度の向上とParsingGaitの優越性が示唆された。
論文 参考訳(メタデータ) (2023-08-31T13:57:38Z) - ViT-Calibrator: Decision Stream Calibration for Vision Transformer [49.60474757318486]
本稿では、一般的な視覚変換器の性能を高めるための、決定ストリームと呼ばれる新しいパラダイムを提案する。
異なるトークンと複数の次元の関連係数の相関関係を探索し,学習過程における情報伝達機構について光を当てた。
論文 参考訳(メタデータ) (2023-04-10T02:40:24Z) - Stacked Hybrid-Attention and Group Collaborative Learning for Unbiased
Scene Graph Generation [62.96628432641806]
Scene Graph Generationは、まず与えられた画像内の視覚的コンテンツをエンコードし、次にそれらをコンパクトな要約グラフに解析することを目的としている。
まず,モーダル内改良とモーダル間相互作用を容易にする新しいスタック型ハイブリッド・アテンションネットワークを提案する。
次に、デコーダを最適化するための革新的なグループ協調学習戦略を考案する。
論文 参考訳(メタデータ) (2022-03-18T09:14:13Z) - GaitStrip: Gait Recognition via Effective Strip-based Feature
Representations and Multi-Level Framework [34.397404430838286]
本稿では,様々なレベルの歩行情報を抽出するために,GaitStripという名前のストリップベースマルチレベル歩行認識ネットワークを提案する。
具体的には、私たちの高レベルブランチは歩行シーケンスのコンテキストを探求し、低レベルブランチは詳細な姿勢変化に焦点を当てています。
我々のGaitStripは、通常の歩行条件と複雑な歩行条件の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-03-08T09:49:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。