論文の概要: Diverse Semantics-Guided Feature Alignment and Decoupling for Visible-Infrared Person Re-Identification
- arxiv url: http://arxiv.org/abs/2505.00619v1
- Date: Thu, 01 May 2025 15:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.363367
- Title: Diverse Semantics-Guided Feature Alignment and Decoupling for Visible-Infrared Person Re-Identification
- Title(参考訳): 可視赤外人物再同定のための異種セマンティクスによる特徴調整とデカップリング
- Authors: Neng Dong, Shuanglin Yan, Liyan Zhang, Jinhui Tang,
- Abstract要約: Visible-Infrared Person Re-Identification (VI-ReID) は、可視像と赤外線像の相違が大きいため、課題である。
本稿では,異なるモーダルからの識別関連特徴をテキスト埋め込み空間に整列させるために,DSFAD(Diverse Semantics-Guided Feature Alignment and Decoupling)ネットワークを提案する。
- 参考スコア(独自算出の注目度): 31.011118085494942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visible-Infrared Person Re-Identification (VI-ReID) is a challenging task due to the large modality discrepancy between visible and infrared images, which complicates the alignment of their features into a suitable common space. Moreover, style noise, such as illumination and color contrast, reduces the identity discriminability and modality invariance of features. To address these challenges, we propose a novel Diverse Semantics-guided Feature Alignment and Decoupling (DSFAD) network to align identity-relevant features from different modalities into a textual embedding space and disentangle identity-irrelevant features within each modality. Specifically, we develop a Diverse Semantics-guided Feature Alignment (DSFA) module, which generates pedestrian descriptions with diverse sentence structures to guide the cross-modality alignment of visual features. Furthermore, to filter out style information, we propose a Semantic Margin-guided Feature Decoupling (SMFD) module, which decomposes visual features into pedestrian-related and style-related components, and then constrains the similarity between the former and the textual embeddings to be at least a margin higher than that between the latter and the textual embeddings. Additionally, to prevent the loss of pedestrian semantics during feature decoupling, we design a Semantic Consistency-guided Feature Restitution (SCFR) module, which further excavates useful information for identification from the style-related features and restores it back into the pedestrian-related features, and then constrains the similarity between the features after restitution and the textual embeddings to be consistent with that between the features before decoupling and the textual embeddings. Extensive experiments on three VI-ReID datasets demonstrate the superiority of our DSFAD.
- Abstract(参考訳): Visible-Infrared Person Re-Identification (VI-ReID) は、可視画像と赤外線画像の間に大きな相違があり、特徴のアライメントを適切な共通空間に複雑化するため、難しい課題である。
さらに、照明や色コントラストといったスタイルノイズは、特徴の識別性やモダリティの不変性を低下させる。
これらの課題に対処するために、異なるモダリティからのアイデンティティ関連特徴をテキスト埋め込み空間に整列させ、各モダリティ内でのID非関連特徴をアンタングル化するための、DSFAD(Diverse Semantics-guided Feature Alignment and Decoupling)ネットワークを提案する。
具体的には,多種多様な文構造を持つ歩行者記述を生成し,視覚的特徴の横断的アライメントを誘導するDSFAモジュールを開発する。
さらに,視覚的特徴を歩行者関連およびスタイル関連コンポーネントに分解するセマンティックマージン誘導特徴デカップリング(SMFD)モジュールを提案する。
さらに,特徴デカップリング時の歩行者意味の喪失を防止するため,セマンティック一貫性誘導特徴再構成(SCFR)モジュールを設計し,スタイル関連特徴の識別に有用な情報を抽出し,歩行者関連特徴に復元し,再構成後の特徴とテキスト埋め込みとの類似性を,デカップリング前の特徴とテキスト埋め込みとの整合性に制約する。
3つのVI-ReIDデータセットに対する大規模な実験は、DSFADの優位性を示している。
関連論文リスト
- Embedding and Enriching Explicit Semantics for Visible-Infrared Person Re-Identification [31.011118085494942]
Visible-infrared person re-identification (VIReID)は、異なるモードで同じ同一の歩行者画像を取得する。
既存の方法は画像のみから視覚的コンテンツを学習するが、高レベルの意味を感知する能力は欠如している。
本稿では,意味的にリッチな横断歩行者表現を学習するための埋め込み・拡張型明示的意味論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-11T14:27:30Z) - See What You Seek: Semantic Contextual Integration for Cloth-Changing Person Re-Identification [16.845045499676793]
衣服交換者再識別(CC-ReID)は、衣服の変化にもかかわらず、複数の監視カメラで個人をマッチングすることを目的としている。
既存の方法は通常、衣服の変化の影響を緩和したり、ID関連機能を強化することに重点を置いている。
本稿では,CC-ReIDのための新しいプロンプト学習フレームワークSemantic Contextual Integration(SCI)を提案する。
論文 参考訳(メタデータ) (2024-12-02T10:11:16Z) - Language Guided Domain Generalized Medical Image Segmentation [68.93124785575739]
単一ソースドメインの一般化は、より信頼性が高く一貫性のあるイメージセグメンテーションを現実の臨床環境にわたって約束する。
本稿では,テキストエンコーダ機能によって案内されるコントラスト学習機構を組み込むことで,テキスト情報を明確に活用する手法を提案する。
文献における既存手法に対して,本手法は良好な性能を発揮する。
論文 参考訳(メタデータ) (2024-04-01T17:48:15Z) - CLIP-Driven Semantic Discovery Network for Visible-Infrared Person
Re-Identification [39.262536758248245]
モダリティ間の同一性マッチングは、VIReIDにおいて重要な課題である。
本稿では,CLIP-Driven Semantic Discovery Network(CSDN)を提案する。
論文 参考訳(メタデータ) (2024-01-11T10:20:13Z) - Shape-centered Representation Learning for Visible-Infrared Person Re-identification [49.929146653650534]
Visible-Infrared Person Re-Identification (VI-ReID)は、全日監視システムにおいて重要な役割を果たす。
既存の手法は主に体型の特徴を見下ろしながら、外見の特徴を学習することに焦点を当てている。
形状と外観を革新的に統合し,VI-ReID性能を向上させる形状中心表現学習(ScRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-27T07:57:24Z) - Learning Cross-modality Information Bottleneck Representation for
Heterogeneous Person Re-Identification [61.49219876388174]
Visible-Infrared person re-identification (VI-ReID)は、インテリジェントビデオ監視において重要かつ困難な課題である。
既存の手法は主に共有特徴空間の学習に重点を置いており、可視光と赤外光の相違を減らす。
本稿では,新しい相互情報・モダリティコンセンサスネットワーク,すなわちCMInfoNetを提案し,モダリティ不変な同一性の特徴を抽出する。
論文 参考訳(メタデータ) (2023-08-29T06:55:42Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Shape-Erased Feature Learning for Visible-Infrared Person
Re-Identification [90.39454748065558]
体型は、VI-ReIDにとって重要なモダリティシェードの1つである。
本稿では,2つの部分空間におけるモダリティ共有特徴を関連づける形状学習パラダイムを提案する。
SYSU-MM01, RegDB, HITSZ-VCMデータセットを用いた実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-09T10:22:10Z) - CycleTrans: Learning Neutral yet Discriminative Features for
Visible-Infrared Person Re-Identification [79.84912525821255]
Visible-infrared person re-identification (VI-ReID) は、可視・赤外線モダリティ間で同一人物をマッチングするタスクである。
既存のVI-ReID手法は主に、特徴識別性を犠牲にして、モダリティを越えて一般的な特徴を学習することに焦点を当てている。
ニュートラルかつ差別的な特徴学習のための新しいサイクル構築型ネットワークであるCycleTransを提案する。
論文 参考訳(メタデータ) (2022-08-21T08:41:40Z) - Learning Semantic-Aligned Feature Representation for Text-based Person
Search [8.56017285139081]
テキストに基づく人物検索のためのセマンティック・アライン・埋め込み手法を提案する。
特徴アライメントは、意味的に整った視覚的特徴とテキスト的特徴を自動的に学習することで達成される。
CUHK-PEDESおよびFlickr30Kデータセットによる実験結果から,本手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-12-13T14:54:38Z) - Exploring Modality-shared Appearance Features and Modality-invariant
Relation Features for Cross-modality Person Re-Identification [72.95858515157603]
クロスモダリティの人物再識別作業は、識別モダリティ共有機能に依存する。
初期の成功にもかかわらず、このようなモダリティ共有の外観機能は十分なモダリティ不変情報をキャプチャできない。
クロスモダリティの変動をさらに低減するために、新しいクロスモダリティ四重極損失が提案される。
論文 参考訳(メタデータ) (2021-04-23T11:14:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。