論文の概要: Homogeneous and Heterogeneous Consistency progressive Re-ranking for Visible-Infrared Person Re-identification
- arxiv url: http://arxiv.org/abs/2603.16165v1
- Date: Tue, 17 Mar 2026 06:32:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.132672
- Title: Homogeneous and Heterogeneous Consistency progressive Re-ranking for Visible-Infrared Person Re-identification
- Title(参考訳): 可視赤外人物再識別における同種・異種不均一性の再評価
- Authors: Yiming Wang,
- Abstract要約: 可視的赤外線の人物再識別は、モダリティの相違により、従来の人物の再同定よりも大きな課題に直面している。
既存のリランクアルゴリズムは、モダル人再識別におけるモダル内変異とモダル間差に同時に対処できない。
本稿では,不均質および均質な整合性という2つのモジュールからなる新しいプログレッシブモーダル関係再ランク法を提案する。
- 参考スコア(独自算出の注目度): 5.004656285742371
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Visible-infrared person re-identification faces greater challenges than traditional person re-identification due to the significant differences between modalities. In particular, the differences between these modalities make effective matching even more challenging, mainly because existing re-ranking algorithms cannot simultaneously address the intra-modal variations and inter-modal discrepancy in cross-modal person re-identification. To address this problem, we propose a novel Progressive Modal Relationship Re-ranking method consisting of two modules, called heterogeneous and homogeneous consistency re-ranking(HHCR). The first module, heterogeneous consistency re-ranking, explores the relationship between the query and the gallery modalities in the test set. The second module, homogeneous consistency reranking, investigates the intrinsic relationship within each modality between the query and the gallery in the test set. Based on this, we propose a baseline for cross-modal person re-identification, called a consistency re-ranking inference network (CRI). We conducted comprehensive experiments demonstrating that our proposed re-ranking method is generalized, and both the re-ranking and the baseline achieve state-of-the-art performance.
- Abstract(参考訳): 可視的赤外線の人物再識別は、モダリティの顕著な相違により、従来の人物の再同定よりも大きな課題に直面している。
特に、これらのモダリティの違いは、既存のリグレードアルゴリズムがモダリティ内変異とモダリティ間差に同時に対処できないために、より効果的なマッチングをさらに困難にしている。
この問題に対処するために,HHCR(Hheregeneous and homogeneous consistency re- rank)と呼ばれる2つのモジュールからなる新しいプログレッシブモーダル関係復級法を提案する。
最初のモジュールである不均一な一貫性が再ランクされ、クエリとテストセットのギャラリーのモダリティの関係を探索する。
第2のモジュールは、同質の整合性を再評価し、クエリとテストセットのギャラリー間の各モードにおける本質的な関係を調査する。
そこで我々は,整合性再ランク推論ネットワーク (CRI) と呼ばれる,クロスモーダルな人物再識別のためのベースラインを提案する。
提案手法が一般化されることを実証した総合実験を行い,提案手法とベースラインの双方が最先端性能を達成することを実証した。
関連論文リスト
- Search-R2: Enhancing Search-Integrated Reasoning via Actor-Refiner Collaboration [49.9937230730202]
本稿では,新たなアクター・リファイナ・コラボレーション・フレームワークであるSearch-R2を提案する。
提案手法は,生成過程をアクターに分解し,最初の推論軌道を生成する。
本稿では,検索-R2がモデルスケール全体にわたって強力なRAGとRLベースのベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2026-02-03T15:32:09Z) - Dual-Granularity Cross-Modal Identity Association for Weakly-Supervised Text-to-Person Image Matching [7.1469465755934785]
弱教師付きテキスト対人画像マッチングは、大規模な手動ラベル付きサンプルへのモデル依存を減らすための重要なアプローチである。
本稿では,複雑な一対多の同一性関係を予測するために,二重粒度同一性関連機構を提案する。
実験結果から,提案手法はクロスモーダルマッチングの精度を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-07-09T10:59:13Z) - Mix-Modality Person Re-Identification: A New and Practical Paradigm [20.01921944345468]
より実用的な混合モダリティ検索パラダイムを提案する。
既存の可視赤外人物再識別法(VI-ReID)は,両モード相互検索のパラダイムにおいていくつかの成果を上げている。
本稿では,Mix-Modality person re-identification (MM-ReID)タスクを提案する。
論文 参考訳(メタデータ) (2024-12-06T02:19:57Z) - Exploring Homogeneous and Heterogeneous Consistent Label Associations for Unsupervised Visible-Infrared Person ReID [57.500045584556794]
均質かつ不均一なインスタンスレベルの構造を同時に説明できるModality-Unified Label Transfer (MULT) モジュールを導入する。
提案したMULTは、生成した擬似ラベルがモダリティ間の整合性を維持しつつ、モダリティ内の構造的整合性を維持することを保証する。
実験の結果,提案手法は既存のUSL-VI-ReID法よりも優れていた。
論文 参考訳(メタデータ) (2024-02-01T15:33:17Z) - Modality Unifying Network for Visible-Infrared Person Re-Identification [24.186989535051623]
Visible-infrared person re-identification (VI-ReID) は、異種間の大きな相違とクラス内変異のために難しい課題である。
既存の手法は主に、異なるモダリティを同じ特徴空間に埋め込むことで、モダリティ共有表現を学習することに焦点を当てている。
そこで我々は,VI-ReID の頑健な補助モダリティを探索するために,新しいモダリティ統一ネットワーク (MUN) を提案する。
論文 参考訳(メタデータ) (2023-09-12T14:22:22Z) - Cross-Attention is Not Enough: Incongruity-Aware Dynamic Hierarchical
Fusion for Multimodal Affect Recognition [69.32305810128994]
モダリティ間の同調性は、特に認知に影響を及ぼすマルチモーダル融合の課題となる。
本稿では,動的モダリティゲーティング(HCT-DMG)を用いた階層型クロスモーダルトランスを提案する。
HCT-DMG: 1) 従来のマルチモーダルモデルを約0.8Mパラメータで上回り、2) 不整合が認識に影響を及ぼすハードサンプルを認識し、3) 潜在レベルの非整合性をクロスモーダルアテンションで緩和する。
論文 参考訳(メタデータ) (2023-05-23T01:24:15Z) - Modality-Adaptive Mixup and Invariant Decomposition for RGB-Infrared
Person Re-Identification [84.32086702849338]
RGB-赤外線人物再同定のための新しいモダリティ適応混合・不変分解(MID)手法を提案する。
MIDは、RGBと赤外線画像の混合画像を生成するためのモダリティ適応混合方式を設計する。
2つの挑戦的なベンチマーク実験は、最先端の手法よりもMIDの優れた性能を示す。
論文 参考訳(メタデータ) (2022-03-03T14:26:49Z) - Dual Gaussian-based Variational Subspace Disentanglement for
Visible-Infrared Person Re-Identification [19.481092102536827]
Visible-infrared person re-identification (VI-ReID)は、夜間のインテリジェント監視システムにおいて、困難かつ必須の課題である。
本稿では,2つのガウス型変分オートエンコーダ(DG-VAE)を提案する。
提案手法は2つのVI-ReIDデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-08-06T08:43:35Z) - Dynamic Dual-Attentive Aggregation Learning for Visible-Infrared Person
Re-Identification [208.1227090864602]
Visible-infrared person re-identification (VI-ReID) は、歩行者検索の課題である。
既存のVI-ReID法は、識別可能性に制限があり、ノイズの多い画像に対して弱いロバスト性を持つグローバル表現を学習する傾向にある。
そこで我々は,VI-ReIDのための動的二段階集合(DDAG)学習法を提案する。
論文 参考訳(メタデータ) (2020-07-18T03:08:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。