論文の概要: Hierarchical Identity Learning for Unsupervised Visible-Infrared Person Re-Identification
- arxiv url: http://arxiv.org/abs/2509.11587v1
- Date: Mon, 15 Sep 2025 05:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.153613
- Title: Hierarchical Identity Learning for Unsupervised Visible-Infrared Person Re-Identification
- Title(参考訳): 教師なし可視赤外人物再同定のための階層的アイデンティティ学習
- Authors: Haonan Shi, Yubin Wang, De Cheng, Lingfeng He, Nannan Wang, Xinbo Gao,
- Abstract要約: 教師なし可視赤外線人物再識別(USVI-ReID)は、ラベルのないクロスモーダルな人物データセットからモダリティ不変の画像特徴を学習することを目的としている。
- 参考スコア(独自算出の注目度): 81.3063589622217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised visible-infrared person re-identification (USVI-ReID) aims to learn modality-invariant image features from unlabeled cross-modal person datasets by reducing the modality gap while minimizing reliance on costly manual annotations. Existing methods typically address USVI-ReID using cluster-based contrastive learning, which represents a person by a single cluster center. However, they primarily focus on the commonality of images within each cluster while neglecting the finer-grained differences among them. To address the limitation, we propose a Hierarchical Identity Learning (HIL) framework. Since each cluster may contain several smaller sub-clusters that reflect fine-grained variations among images, we generate multiple memories for each existing coarse-grained cluster via a secondary clustering. Additionally, we propose Multi-Center Contrastive Learning (MCCL) to refine representations for enhancing intra-modal clustering and minimizing cross-modal discrepancies. To further improve cross-modal matching quality, we design a Bidirectional Reverse Selection Transmission (BRST) mechanism, which establishes reliable cross-modal correspondences by performing bidirectional matching of pseudo-labels. Extensive experiments conducted on the SYSU-MM01 and RegDB datasets demonstrate that the proposed method outperforms existing approaches. The source code is available at: https://github.com/haonanshi0125/HIL.
- Abstract(参考訳): 教師なし可視人物再識別(USVI-ReID)は、高価な手書きアノテーションへの依存を最小限に抑えつつ、モダリティギャップを減らし、ラベルなしのクロスモーダル人物データセットからモダリティ不変画像の特徴を学習することを目的としている。
既存のメソッドは通常、クラスタベースのコントラスト学習を使用してUSVI-ReIDに対処する。
しかし、彼らは主にクラスタ内のイメージの共通性に焦点を合わせ、それら間のよりきめ細かい違いを無視した。
この制限に対処するため,階層的アイデンティティ学習(HIL)フレームワークを提案する。
各クラスタには、画像間のきめ細かい変化を反映したいくつかの小さなサブクラスタが含まれている可能性があるので、二次クラスタリングを介して、既存の粗いクラスタごとに複数のメモリを生成する。
さらに,マルチセンターコントラスト学習 (MCCL) を提案する。
クロスモーダルマッチングの品質をさらに向上するために,疑似ラベルの双方向マッチングを行うことにより,信頼性の高いクロスモーダル対応を確立する双方向リバース選択送信(BRST)機構を設計する。
SYSU-MM01とRegDBデータセットで行った大規模な実験により,提案手法が既存手法より優れていることが示された。
ソースコードは、https://github.com/haonanshi0125/HILで入手できる。
関連論文リスト
- Modality-Aware Bias Mitigation and Invariance Learning for Unsupervised Visible-Infrared Person Re-Identification [14.343677160918723]
教師なし可視赤外線人物再識別(USVI-ReID)は、アノテーションに頼ることなく、可視・赤外線カメラ間で個人をマッチングすることを目的としている。
信頼性の高いクロスモダリティ・アソシエーションを推定することは、USVI-ReIDにおいて大きな課題である。
本稿では、偏りを緩和したグローバルアソシエーションとモダリティ不変表現学習という2つの側面から、モダリティ間の学習に対処することに焦点を当てる。
論文 参考訳(メタデータ) (2025-12-08T17:42:28Z) - Dynamic Modality-Camera Invariant Clustering for Unsupervised Visible-Infrared Person Re-identification [46.63906666692304]
教師なし学習の可視的人物再識別(USL-VI-ReID)は、教師付き手法よりも柔軟で費用対効果の高い代替手段を提供する。
既存の方法は単純にモダリティ固有のサンプルをクラスタリングし、インスタンス・クラスタ間またはクラスタ・クラスタ間相互関連を達成するために強力なアソシエーション技術を用いる。
我々は,USL-VI-ReIDのための動的モダリティ・カメラ不変クラスタリング(DMIC)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-11T09:31:03Z) - Unsupervised Visible-Infrared ReID via Pseudo-label Correction and Modality-level Alignment [23.310509459311046]
UVI-ReID (unsupervised visible-infrared person re-identification) が近年注目されている。
従来手法では, UVI-ReIDを実現するためにモダリティ内クラスタリングとクロスモダリティ特徴マッチングが用いられていた。
論文 参考訳(メタデータ) (2024-04-10T02:03:14Z) - Learning Commonality, Divergence and Variety for Unsupervised Visible-Infrared Person Re-identification [32.537029197752915]
教師なし可視人物再識別(USVI-ReID)は、赤外線画像中の特定人物とアノテーションなしで可視画像とをマッチングすることを目的としており、その逆も目的である。
既存のほとんどのメソッドは、クラスタベースのコントラスト学習を使用してUSVI-ReIDに対処する。
我々は,USVI-ReIDのためのハードおよびダイナミックプロトタイプを用いたプログレッシブコントラスト学習を提案する。
論文 参考訳(メタデータ) (2024-02-29T10:37:49Z) - Exploring Homogeneous and Heterogeneous Consistent Label Associations for Unsupervised Visible-Infrared Person ReID [57.500045584556794]
均質かつ不均一なインスタンスレベルの構造を同時に説明できるModality-Unified Label Transfer (MULT) モジュールを導入する。
提案したMULTは、生成した擬似ラベルがモダリティ間の整合性を維持しつつ、モダリティ内の構造的整合性を維持することを保証する。
実験の結果,提案手法は既存のUSL-VI-ReID法よりも優れていた。
論文 参考訳(メタデータ) (2024-02-01T15:33:17Z) - Multi-Memory Matching for Unsupervised Visible-Infrared Person Re-Identification [30.983346937558743]
USL-VI-ReIDの主な課題は、擬似ラベルを効果的に生成し、擬似ラベル対応を確立することである。
我々はUSL-VI-ReIDのためのマルチメモリマッチングフレームワークを提案する。
公開SYSU-MM01とRegDBデータセットの実験は、確立された相互モダリティ対応の信頼性を示す。
論文 参考訳(メタデータ) (2024-01-12T01:24:04Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z) - Unsupervised Person Re-identification via Softened Similarity Learning [122.70472387837542]
人物再識別(re-ID)はコンピュータビジョンにおいて重要なトピックである。
本稿では,ラベル付き情報を必要としないre-IDの教師なし設定について検討する。
2つの画像ベースおよびビデオベースデータセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-04-07T17:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。