論文の概要: CKDA: Cross-modality Knowledge Disentanglement and Alignment for Visible-Infrared Lifelong Person Re-identification
- arxiv url: http://arxiv.org/abs/2511.15016v1
- Date: Wed, 19 Nov 2025 01:30:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.585332
- Title: CKDA: Cross-modality Knowledge Disentanglement and Alignment for Visible-Infrared Lifelong Person Re-identification
- Title(参考訳): CKDA:視覚的赤外生涯人物再識別のためのクロスモダリティ知識のゆがみとアライメント
- Authors: Zhenyu Cui, Jiahuan Zhou, Yuxin Peng,
- Abstract要約: 生涯にわたる人物再識別は、異なるシナリオから継続的に収集された個々のデータを同一人物と一致させることを目的としている。
日夜の連続した日中マッチングを実現するために、Visible-Infrared Lifelong person Re-IDentification (VI-LReID) は、可視および赤外線モダリティからのデータのシーケンシャルトレーニングに重点を置いている。
既存の方法は、伝統的知識の破滅的な忘れを和らげるために、クロスモーダルな知識蒸留を利用するのが一般的である。
- 参考スコア(独自算出の注目度): 77.07028925223383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lifelong person Re-IDentification (LReID) aims to match the same person employing continuously collected individual data from different scenarios. To achieve continuous all-day person matching across day and night, Visible-Infrared Lifelong person Re-IDentification (VI-LReID) focuses on sequential training on data from visible and infrared modalities and pursues average performance over all data. To this end, existing methods typically exploit cross-modal knowledge distillation to alleviate the catastrophic forgetting of old knowledge. However, these methods ignore the mutual interference of modality-specific knowledge acquisition and modality-common knowledge anti-forgetting, where conflicting knowledge leads to collaborative forgetting. To address the above problems, this paper proposes a Cross-modality Knowledge Disentanglement and Alignment method, called CKDA, which explicitly separates and preserves modality-specific knowledge and modality-common knowledge in a balanced way. Specifically, a Modality-Common Prompting (MCP) module and a Modality-Specific Prompting (MSP) module are proposed to explicitly disentangle and purify discriminative information that coexists and is specific to different modalities, avoiding the mutual interference between both knowledge. In addition, a Cross-modal Knowledge Alignment (CKA) module is designed to further align the disentangled new knowledge with the old one in two mutually independent inter- and intra-modality feature spaces based on dual-modality prototypes in a balanced manner. Extensive experiments on four benchmark datasets verify the effectiveness and superiority of our CKDA against state-of-the-art methods. The source code of this paper is available at https://github.com/PKU-ICST-MIPL/CKDA-AAAI2026.
- Abstract(参考訳): LReID(Lifelong person Re-IDentification)は、異なるシナリオから継続的に収集された個々のデータを同一人物と一致させることを目的としている。
日夜の連続した一日の人同士のマッチングを実現するために、Visible-Infrared Lifelong person Re-IDentification (VI-LReID) は、可視・赤外線モダリティからのデータのシーケンシャルトレーニングに重点を置いて、すべてのデータに対する平均的なパフォーマンスを追求する。
この目的のために、既存の手法は伝統的知識の破滅的な忘れを和らげるために、クロスモーダルな知識蒸留を利用するのが一般的である。
しかし、これらの手法は、モダリティ固有の知識獲得とモダリティ特有の知識の相互干渉を無視する。
そこで本研究では,モダリティ固有の知識とモダリティに共通する知識をバランスよく分離・保存する,CKDAと呼ばれるクロスモダリティ・ナレッジ・ディアンタングルメント・アライメント手法を提案する。
具体的には、モダリティ・コモン・プロンプティング(MCP)モジュールとモダリティ・スペクティブ・プロンプティング(MSP)モジュールが、両知識間の相互干渉を避けるために共存し、異なるモダリティに特有な識別情報を明示的に切り離し、浄化するために提案される。
さらに、相互独立な2つのモード間特徴空間と2つのモード間特徴空間において、両モード間知識アライメント(CKA)モジュールは、両モード間プロトタイプをバランスの取れた方法で、不整合した新しい知識と、古い知識とをさらに整合させるように設計されている。
4つのベンチマークデータセットに対する大規模な実験は、最先端の手法に対するCKDAの有効性と優位性を検証する。
本論文のソースコードはhttps://github.com/PKU-ICST-MIPL/CKDA-AAAI2026で公開されている。
関連論文リスト
- FedVCK: Non-IID Robust and Communication-Efficient Federated Learning via Valuable Condensed Knowledge for Medical Image Analysis [27.843757290938925]
textbfValuable textbfCondensed textbfKnowledge (FedVCK)による新しいフェデレーション学習法を提案する。
我々は、限られた通信予算の中で、非IID問題に効果的に取り組むために、凝縮知識の品質を高め、モデルによって導かれる最も必要な知識を選択する。
論文 参考訳(メタデータ) (2024-12-24T17:20:43Z) - InterFormer: Effective Heterogeneous Interaction Learning for Click-Through Rate Prediction [83.7578502046955]
我々はインターリービング方式で異種情報インタラクションを学習するInterFormerという新しいモジュールを提案する。
提案するInterFormerは,3つのパブリックデータセットと大規模産業データセットに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-15T00:20:36Z) - Implicit Discriminative Knowledge Learning for Visible-Infrared Person Re-Identification [5.592360872268223]
Visible-Infrared Person Re-identification (VI-ReID) は、横断歩行者検索の課題である。
既存の研究は主に、異なるモダリティのイメージを統一された空間に埋め込み、モダリティの共有された特徴をマイニングすることに焦点を当てている。
本稿では,モダリティ特定に含まれる暗黙的識別情報を発見・活用するために,新たなIDKLネットワークを提案する。
論文 参考訳(メタデータ) (2024-03-18T12:12:45Z) - A Dimensional Structure based Knowledge Distillation Method for
Cross-Modal Learning [15.544134849816528]
簡単な作業から抽出した特徴を解析・観察することで特徴識別性と次元構造(DS)の相関を見いだす。
クロスモーダル・ナレッジ・蒸留法 (CMKD) を提案し, 教師付きクロスモーダル・ラーニング (CML) の性能向上を図る。
提案手法は, チャネル的に独立して, 中間的な特徴を均一に分散させることで, その精度を高めるために, 難易度から意味的に無関係な特徴を学習する。
論文 参考訳(メタデータ) (2023-06-28T07:29:26Z) - CLIP-Driven Fine-grained Text-Image Person Re-identification [50.94827165464813]
TIReIDは、候補画像のプールから与えられたテキストクエリに対応する画像を取得することを目的としている。
TIReIDにおけるCLIPの強力な知識をフル活用するための,CLIP駆動のきめ細かい情報抽出フレームワーク(CFine)を提案する。
論文 参考訳(メタデータ) (2022-10-19T03:43:12Z) - CMD: Self-supervised 3D Action Representation Learning with Cross-modal
Mutual Distillation [130.08432609780374]
3D行動認識では、骨格のモダリティの間に豊富な相補的な情報が存在する。
本稿では,CMD(Cross-modal Mutual Distillation)フレームワークを提案する。
提案手法は,既存の自己管理手法より優れ,新しい記録を多数設定する。
論文 参考訳(メタデータ) (2022-08-26T06:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。