論文の概要: Edges Are All You Need: Robust Gait Recognition via Label-Free Structure
- arxiv url: http://arxiv.org/abs/2603.05537v1
- Date: Wed, 04 Mar 2026 05:48:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.169971
- Title: Edges Are All You Need: Robust Gait Recognition via Label-Free Structure
- Title(参考訳): エッジは必要なもの:ラベルなし構造によるロバストな歩行認識
- Authors: Chao Zhang, Zhuang Zheng, Ruixin Li, Zhanyong Mei,
- Abstract要約: 歩行認識は、セキュリティアプリケーションのための非侵入的生体認証技術である。
既存の研究はシルエットとパーシングに基づく表現に支配されている。
歩行認識のための新しい視覚モダリティとしてSKETCHを導入する。
- 参考スコア(独自算出の注目度): 5.865403733349731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition is a non-intrusive biometric technique for security applications, yet existing studies are dominated by silhouette- and parsing-based representations. Silhouettes are sparse and miss internal structural details, limiting discriminability. Parsing enriches silhouettes with part-level structures, but relies heavily on upstream human parsers (e.g., label granularity and boundary precision), leading to unstable performance across datasets and sometimes even inferior results to silhouettes. We revisit gait representations from a structural perspective and describe a design space defined by edge density and supervision form: silhouettes use sparse boundary edges with weak single-label supervision, while parsing uses denser cues with strong semantic priors. In this space, we identify an underexplored paradigm: dense part-level structure without explicit semantic labels, and introduce SKETCH as a new visual modality for gait recognition. Sketch extracts high-frequency structural cues (e.g., limb articulations and self-occlusion contours) directly from RGB images via edge-based detectors in a label-free manner. We further show that label-guided parsing and label-free sketch are semantically decoupled and structurally complementary. Based on this, we propose SKETCHGAIT, a hierarchically disentangled multi-modal framework with two independent streams for modality-specific learning and a lightweight early-stage fusion branch to capture structural complementarity. Extensive experiments on SUSTech1K and CCPG validate the proposed modality and framework: SketchGait achieves 92.9% Rank-1 on SUSTech1K and 93.1% mean Rank-1 on CCPG.
- Abstract(参考訳): 歩行認識は、セキュリティアプリケーションのための非侵襲的な生体計測技術であるが、既存の研究はシルエットとパーシングに基づく表現に支配されている。
シルエットはスパースであり、内部構造の詳細を見逃し、識別性を制限する。
パーシングはシルエットを部分レベルの構造で豊かにするが、上流の人間のパーサー(例えば、ラベルの粒度と境界精度)に大きく依存し、データセット間で不安定なパフォーマンスをもたらし、時にはシルエットに劣る結果に至る。
シルエットは、弱い単一ラベルの監督を伴うスパース境界エッジを使用し、パーシングは、強いセマンティック事前を持つより密度の高いキューを使用する。
この領域では、明示的な意味ラベルを持たない高密度な部分レベル構造を探索されていないパラダイムを特定し、歩行認識のための新しい視覚的モダリティとしてSKETCHを導入する。
Sketchは、RGB画像から直接、エッジベースの検出器を介して、ラベルのない方法で高周波構造的手がかり(例えば、手足関節と自己閉塞輪郭)を抽出する。
さらに,ラベル誘導構文解析とラベルフリースケッチが意味的に分離され,構造的に相補的であることを示す。
そこで我々は,SKETCHGAITを提案する。SKETCHGAITは階層的に切り離されたマルチモーダルフレームワークで,モダリティ特化学習のための2つの独立したストリームと,構造的相補性を捉える軽量なアーリーステージ融合ブランチである。
SketchGaitはSUSTech1Kで92.9%、CCPGで93.1%のランク-1を達成した。
関連論文リスト
- Entropy-Aware Structural Alignment for Zero-Shot Handwritten Chinese Character Recognition [7.632962062462334]
ゼロショット手書き漢字認識は、急進的な意味合成を活用することで、目に見えない文字を認識することを目的としている。
本稿では,情報理論モデリングにより視覚と意味のギャップを埋めるエントロピー対応構造アライメントネットワークを提案する。
ICDAR 2013データセットで55.04%の精度を達成し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2026-02-03T16:08:40Z) - BoundMatch: Boundary detection applied to semi-supervised segmentation [12.8995997687175]
半教師付きセマンティックセマンティックセグメンテーション(SS-SS)は,多彩なラベル付き画像を活用することで,高密度画素ラベリングの重いアノテーション負担を軽減することを目的としている。
本稿では,意味境界検出を教師と学生の整合性正規化パイプラインに明示的に統合する,新しいマルチタスクSS-SSフレームワークであるBoundMatchを提案する。
境界一貫性規則化マルチタスク学習(Bundary Consistency Regularized Multi-Task Learning)は,セグメンテーションマスクと詳細なセグメンテーション境界において,教師と生徒のモデル間の予測合意を強制する。
論文 参考訳(メタデータ) (2025-03-30T17:02:26Z) - "Principal Components" Enable A New Language of Images [79.45806370905775]
証明可能なPCAのような構造を潜在トークン空間に組み込む新しい視覚トークン化フレームワークを導入する。
提案手法は、最先端の再構築性能を実現し、人間の視覚システムとの整合性を向上する。
論文 参考訳(メタデータ) (2025-03-11T17:59:41Z) - It Takes Two: Accurate Gait Recognition in the Wild via Cross-granularity Alignment [72.75844404617959]
本稿では,XGait という新しい粒度アライメント歩行認識手法を提案する。
この目的を達成するために、XGaitはまず2つのバックボーンエンコーダの分岐を含み、シルエットシーケンスとパーシングシーケンスを2つの潜在空間にマッピングする。
2つの大規模な歩行データセットの総合的な実験では、ランク1の精度が80.5%、CCPGが88.3%である。
論文 参考訳(メタデータ) (2024-11-16T08:54:27Z) - Deep Spectral Methods for Unsupervised Ultrasound Image Interpretation [53.37499744840018]
本稿では, 超音波を応用した非教師型深層学習手法を提案する。
我々は、スペクトルグラフ理論と深層学習法を組み合わせた教師なしディープスペクトル法から重要な概念を統合する。
スペクトルクラスタリングの自己教師型トランスフォーマー機能を利用して、超音波特有のメトリクスと形状と位置の先行値に基づいて意味のあるセグメントを生成し、データセット間のセマンティック一貫性を確保する。
論文 参考訳(メタデータ) (2024-08-04T14:30:14Z) - Fine-Grained Side Information Guided Dual-Prompts for Zero-Shot Skeleton Action Recognition [18.012159340628557]
そこで本研究では,スケルトンに基づくゼロショット動作認識(STAR)のための,サイド情報とデュアルプロンプト学習による新しい手法を提案する。
本手法は,データセット上でのZSLおよびGZSL設定における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-11T05:51:06Z) - GaitStrip: Gait Recognition via Effective Strip-based Feature
Representations and Multi-Level Framework [34.397404430838286]
本稿では,様々なレベルの歩行情報を抽出するために,GaitStripという名前のストリップベースマルチレベル歩行認識ネットワークを提案する。
具体的には、私たちの高レベルブランチは歩行シーケンスのコンテキストを探求し、低レベルブランチは詳細な姿勢変化に焦点を当てています。
我々のGaitStripは、通常の歩行条件と複雑な歩行条件の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-03-08T09:49:48Z) - Context-self contrastive pretraining for crop type semantic segmentation [39.81074867563505]
提案したContext-Self Contrastive Loss (CSCL)は、セマンティックバウンダリをポップアップさせる埋め込み空間を学習する。
衛星画像時系列(SITS)からの作物型セマンティックセマンティックセグメンテーションでは,サテライト境界における性能が重要なボトルネックとなる。
より粒度の高い作物のクラスを得るための超解像における意味的セグメンテーションのプロセスを提案する。
論文 参考訳(メタデータ) (2021-04-09T11:29:44Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。