論文の概要: Hierarchical Identity Learning for Unsupervised Visible-Infrared Person Re-Identification
- arxiv url: http://arxiv.org/abs/2509.11587v1
- Date: Mon, 15 Sep 2025 05:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.153613
- Title: Hierarchical Identity Learning for Unsupervised Visible-Infrared Person Re-Identification
- Title(参考訳): 教師なし可視赤外人物再同定のための階層的アイデンティティ学習
- Authors: Haonan Shi, Yubin Wang, De Cheng, Lingfeng He, Nannan Wang, Xinbo Gao,
- Abstract要約: 教師なし可視赤外線人物再識別(USVI-ReID)は、ラベルのないクロスモーダルな人物データセットからモダリティ不変の画像特徴を学習することを目的としている。
- 参考スコア(独自算出の注目度): 81.3063589622217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised visible-infrared person re-identification (USVI-ReID) aims to learn modality-invariant image features from unlabeled cross-modal person datasets by reducing the modality gap while minimizing reliance on costly manual annotations. Existing methods typically address USVI-ReID using cluster-based contrastive learning, which represents a person by a single cluster center. However, they primarily focus on the commonality of images within each cluster while neglecting the finer-grained differences among them. To address the limitation, we propose a Hierarchical Identity Learning (HIL) framework. Since each cluster may contain several smaller sub-clusters that reflect fine-grained variations among images, we generate multiple memories for each existing coarse-grained cluster via a secondary clustering. Additionally, we propose Multi-Center Contrastive Learning (MCCL) to refine representations for enhancing intra-modal clustering and minimizing cross-modal discrepancies. To further improve cross-modal matching quality, we design a Bidirectional Reverse Selection Transmission (BRST) mechanism, which establishes reliable cross-modal correspondences by performing bidirectional matching of pseudo-labels. Extensive experiments conducted on the SYSU-MM01 and RegDB datasets demonstrate that the proposed method outperforms existing approaches. The source code is available at: https://github.com/haonanshi0125/HIL.
- Abstract(参考訳): 教師なし可視人物再識別(USVI-ReID)は、高価な手書きアノテーションへの依存を最小限に抑えつつ、モダリティギャップを減らし、ラベルなしのクロスモーダル人物データセットからモダリティ不変画像の特徴を学習することを目的としている。
既存のメソッドは通常、クラスタベースのコントラスト学習を使用してUSVI-ReIDに対処する。
しかし、彼らは主にクラスタ内のイメージの共通性に焦点を合わせ、それら間のよりきめ細かい違いを無視した。
この制限に対処するため,階層的アイデンティティ学習(HIL)フレームワークを提案する。
各クラスタには、画像間のきめ細かい変化を反映したいくつかの小さなサブクラスタが含まれている可能性があるので、二次クラスタリングを介して、既存の粗いクラスタごとに複数のメモリを生成する。
さらに,マルチセンターコントラスト学習 (MCCL) を提案する。
クロスモーダルマッチングの品質をさらに向上するために,疑似ラベルの双方向マッチングを行うことにより,信頼性の高いクロスモーダル対応を確立する双方向リバース選択送信(BRST)機構を設計する。
SYSU-MM01とRegDBデータセットで行った大規模な実験により,提案手法が既存手法より優れていることが示された。
ソースコードは、https://github.com/haonanshi0125/HILで入手できる。
関連論文リスト
- Learning Commonality, Divergence and Variety for Unsupervised Visible-Infrared Person Re-identification [32.537029197752915]
教師なし可視人物再識別(USVI-ReID)は、赤外線画像中の特定人物とアノテーションなしで可視画像とをマッチングすることを目的としており、その逆も目的である。
既存のほとんどのメソッドは、クラスタベースのコントラスト学習を使用してUSVI-ReIDに対処する。
我々は,USVI-ReIDのためのハードおよびダイナミックプロトタイプを用いたプログレッシブコントラスト学習を提案する。
論文 参考訳(メタデータ) (2024-02-29T10:37:49Z) - Exploring Homogeneous and Heterogeneous Consistent Label Associations for Unsupervised Visible-Infrared Person ReID [57.500045584556794]
均質かつ不均一なインスタンスレベルの構造を同時に説明できるModality-Unified Label Transfer (MULT) モジュールを導入する。
提案したMULTは、生成した擬似ラベルがモダリティ間の整合性を維持しつつ、モダリティ内の構造的整合性を維持することを保証する。
実験の結果,提案手法は既存のUSL-VI-ReID法よりも優れていた。
論文 参考訳(メタデータ) (2024-02-01T15:33:17Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。