論文の概要: Identity Clue Refinement and Enhancement for Visible-Infrared Person Re-Identification
- arxiv url: http://arxiv.org/abs/2512.04522v1
- Date: Thu, 04 Dec 2025 07:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.038496
- Title: Identity Clue Refinement and Enhancement for Visible-Infrared Person Re-Identification
- Title(参考訳): 可視赤外人物再同定のためのアイデンティティ・クローズ・リファインメントと強化
- Authors: Guoqing Zhang, Zhun Wang, Hairui Wang, Zhonglin Ye, Yuhui Zheng,
- Abstract要約: Visible-Infrared Person Re-Identification (VI-ReID) は、重要なモダリティの相違による、異種間マッチングの課題である。
本稿では,モダリティ固有の属性に固有の暗黙的な識別的知識をマイニングし,活用するために,ICRE(Identity Clue Refinement and Enhancement)ネットワークを提案する。
- 参考スコア(独自算出の注目度): 20.544872117860915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visible-Infrared Person Re-Identification (VI-ReID) is a challenging cross-modal matching task due to significant modality discrepancies. While current methods mainly focus on learning modality-invariant features through unified embedding spaces, they often focus solely on the common discriminative semantics across modalities while disregarding the critical role of modality-specific identity-aware knowledge in discriminative feature learning. To bridge this gap, we propose a novel Identity Clue Refinement and Enhancement (ICRE) network to mine and utilize the implicit discriminative knowledge inherent in modality-specific attributes. Initially, we design a Multi-Perception Feature Refinement (MPFR) module that aggregates shallow features from shared branches, aiming to capture modality-specific attributes that are easily overlooked. Then, we propose a Semantic Distillation Cascade Enhancement (SDCE) module, which distills identity-aware knowledge from the aggregated shallow features and guide the learning of modality-invariant features. Finally, an Identity Clues Guided (ICG) Loss is proposed to alleviate the modality discrepancies within the enhanced features and promote the learning of a diverse representation space. Extensive experiments across multiple public datasets clearly show that our proposed ICRE outperforms existing SOTA methods.
- Abstract(参考訳): Visible-Infrared Person Re-Identification (VI-ReID) は、重要なモダリティの相違による、異種間マッチングの課題である。
現在の手法は主に、統合された埋め込み空間を通してモダリティに不変な特徴を学習することに焦点を当てているが、それらはしばしば、モダリティにまたがる共通の差別的意味論にのみ焦点をあてる一方で、識別的特徴学習におけるモダリティ固有のアイデンティティー認識知識の重要な役割を無視する。
このギャップを埋めるために、我々は、モダリティ固有の属性に固有の暗黙の識別的知識をマイニングし、活用するための新しいアイデンティティ・クローズ・リファインメント・アンド・エンハンスメント(ICRE)ネットワークを提案する。
当初我々は、共有ブランチから浅い特徴を集約するMPFR(Multi-Perception Feature Refinement)モジュールを設計した。
そこで本研究では,浅部特徴から自己認識知識を抽出し,モダリティ不変の特徴の学習を導くセマンティック蒸留カスケード拡張(SDCE)モジュールを提案する。
最後に、拡張された特徴におけるモダリティの相違を緩和し、多様な表現空間の学習を促進するために、ICG(Identity Clues Guided)ロスを提案する。
複数の公開データセットにわたる大規模な実験は、提案したICREが既存のSOTA法より優れていることを示している。
関連論文リスト
- What Makes You Unique? Attribute Prompt Composition for Object Re-Identification [70.67907354506278]
Object Re-IDentificationは、重複しないカメラビューで個人を認識することを目的としている。
単一ドメインモデルはドメイン固有の機能に過度に適合する傾向がありますが、クロスドメインモデルは多種多様な正規化戦略に依存します。
本稿では,テキストのセマンティクスを利用して識別と一般化を協調的に強化する属性プロンプト合成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-23T07:03:08Z) - Implicit Discriminative Knowledge Learning for Visible-Infrared Person Re-Identification [5.592360872268223]
Visible-Infrared Person Re-identification (VI-ReID) は、横断歩行者検索の課題である。
既存の研究は主に、異なるモダリティのイメージを統一された空間に埋め込み、モダリティの共有された特徴をマイニングすることに焦点を当てている。
本稿では,モダリティ特定に含まれる暗黙的識別情報を発見・活用するために,新たなIDKLネットワークを提案する。
論文 参考訳(メタデータ) (2024-03-18T12:12:45Z) - VILLS -- Video-Image Learning to Learn Semantics for Person Re-Identification [51.89551385538251]
VILLS (Video-Image Learning to Learn Semantics) は画像やビデオから空間的特徴と時間的特徴を共同で学習する自己教師型手法である。
VILLSはまず、意味的一貫性と頑健な空間的特徴を適応的に抽出する局所意味抽出モジュールを設計する。
そして、VILLSは、一貫した特徴空間における画像とビデオのモダリティを表現するために、統合された特徴学習および適応モジュールを設計する。
論文 参考訳(メタデータ) (2023-11-27T19:30:30Z) - Learning Cross-modality Information Bottleneck Representation for
Heterogeneous Person Re-Identification [61.49219876388174]
Visible-Infrared person re-identification (VI-ReID)は、インテリジェントビデオ監視において重要かつ困難な課題である。
既存の手法は主に共有特徴空間の学習に重点を置いており、可視光と赤外光の相違を減らす。
本稿では,新しい相互情報・モダリティコンセンサスネットワーク,すなわちCMInfoNetを提案し,モダリティ不変な同一性の特徴を抽出する。
論文 参考訳(メタデータ) (2023-08-29T06:55:42Z) - Shape-Erased Feature Learning for Visible-Infrared Person
Re-Identification [90.39454748065558]
体型は、VI-ReIDにとって重要なモダリティシェードの1つである。
本稿では,2つの部分空間におけるモダリティ共有特徴を関連づける形状学習パラダイムを提案する。
SYSU-MM01, RegDB, HITSZ-VCMデータセットを用いた実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-09T10:22:10Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Learning Progressive Modality-shared Transformers for Effective
Visible-Infrared Person Re-identification [27.75907274034702]
我々は,能率VI-ReIDのためのPMT(Progressive Modality-Shared Transformer)という新しいディープラーニングフレームワークを提案する。
モダリティギャップの負の効果を低減するために、まず、グレースケールの画像を補助的なモダリティとして捉え、進歩的な学習戦略を提案する。
クラス内差が大きく,クラス間差が少ない問題に対処するために,識別中心損失を提案する。
論文 参考訳(メタデータ) (2022-12-01T02:20:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。