論文の概要: See What You Seek: Semantic Contextual Integration for Cloth-Changing Person Re-Identification
- arxiv url: http://arxiv.org/abs/2412.01345v1
- Date: Mon, 02 Dec 2024 10:11:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:45:12.801670
- Title: See What You Seek: Semantic Contextual Integration for Cloth-Changing Person Re-Identification
- Title(参考訳): 衣服交換者再識別のための意味的文脈統合
- Authors: Xiyu Han, Xian Zhong, Wenxin Huang, Xuemei Jia, Wenxuan Liu, Xiaohan Yu, Alex Chichung Kot,
- Abstract要約: 衣服交換者再識別(CC-ReID)は、衣服の変化にもかかわらず、複数の監視カメラで個人をマッチングすることを目的としている。
既存の方法は通常、衣服の変化の影響を緩和したり、ID関連機能を強化することに重点を置いている。
本稿では,CC-ReIDのための新しいプロンプト学習フレームワークSemantic Contextual Integration(SCI)を提案する。
- 参考スコア(独自算出の注目度): 16.845045499676793
- License:
- Abstract: Cloth-changing person re-identification (CC-ReID) aims to match individuals across multiple surveillance cameras despite variations in clothing. Existing methods typically focus on mitigating the effects of clothing changes or enhancing ID-relevant features but often struggle to capture complex semantic information. In this paper, we propose a novel prompt learning framework, Semantic Contextual Integration (SCI), for CC-ReID, which leverages the visual-text representation capabilities of CLIP to minimize the impact of clothing changes and enhance ID-relevant features. Specifically, we introduce Semantic Separation Enhancement (SSE) module, which uses dual learnable text tokens to separately capture confounding and clothing-related semantic information, effectively isolating ID-relevant features from distracting clothing semantics. Additionally, we develop a Semantic-Guided Interaction Module (SIM) that uses orthogonalized text features to guide visual representations, sharpening the model's focus on distinctive ID characteristics. This integration enhances the model's discriminative power and enriches the visual context with high-dimensional semantic insights. Extensive experiments on three CC-ReID datasets demonstrate that our method outperforms state-of-the-art techniques. The code will be released at github.
- Abstract(参考訳): 衣服交換者再識別(CC-ReID)は、衣服の変化にもかかわらず、複数の監視カメラで個人をマッチングすることを目的としている。
既存の方法は通常、衣服の変化の影響を緩和したり、ID関連機能を強化することに重点を置いているが、複雑な意味情報を捉えるのに苦労することが多い。
本稿では,CLIPの視覚的テキスト表現機能を活用し,衣服の変化の影響を最小限に抑え,ID関連機能を強化した,新しいプロンプト学習フレームワークSemantic Contextual Integration(SCI)を提案する。
具体的には,2つの学習可能なテキストトークンを用いたセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・エンハンスメント(SSE)モジュールを導入する。
さらに、直交したテキスト特徴を用いて視覚表現を誘導し、特徴的ID特性に焦点を絞るセマンティック・ガイド・インタラクション・モジュール(SIM)を開発した。
この統合はモデルの識別力を高め、高次元の意味的な洞察で視覚的コンテキストを強化する。
3つのCC-ReIDデータセットに対する大規模な実験により,本手法が最先端技術より優れていることが示された。
コードはgithubでリリースされる。
関連論文リスト
- CLIP-Driven Cloth-Agnostic Feature Learning for Cloth-Changing Person Re-Identification [47.948622774810296]
衣服交換者再識別のためのCLIP-Driven Cloth-Agnostic Feature Learning (CCAF) という新しいフレームワークを提案する。
Invariant Feature Prompting (IFP) と Clothes Feature Minimization (CFM) の2つのモジュールがカスタム設計されている。
提案したCCAFの有効性を実証し、いくつかのCC-ReIDベンチマークで新たな最先端性能を実現した。
論文 参考訳(メタデータ) (2024-06-13T14:56:07Z) - Attend and Enrich: Enhanced Visual Prompt for Zero-Shot Learning [114.59476118365266]
視覚表現豊か化のための意味強調プロンプトを抽出するための視覚的プロンプトに意味情報を付与するAENetを提案する。
AENetは、2つの重要なステップから構成される: 1) 視覚的・属性的モダリティの概念調和トークンを探索し、一貫した視覚的セマンティックな概念を表す様相共有トークンに基づく。
論文 参考訳(メタデータ) (2024-06-05T07:59:48Z) - Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人の再識別は、重複しないカメラで同じ人の衣服の変化を認識することを目的としている。
本稿では、並列間セマンティクスの相互作用と洗練を容易にするコンテンツ・サリアンセマンティクス協調フレームワークを提案する。
我々のフレームワークはシンプルだが有効であり、重要な設計はセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールである。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Identity-aware Dual-constraint Network for Cloth-Changing Person Re-identification [13.709863134725335]
CC-ReID(CC-Changing Person Re-Identification)は、歩行者が着替えを行うより現実的な監視シナリオにおいて、対象者を正確に識別することを目的としている。
大きな進歩にもかかわらず、既存のCC-ReIDデータセットの限られた布質変化トレーニングサンプルは、モデルが布質非関連の特徴を適切に学習することを妨げている。
本稿では,CC-ReIDタスクのためのID-Aware Dual-Constraint Network (IDNet)を提案する。
論文 参考訳(メタデータ) (2024-03-13T05:46:36Z) - CLIP-Driven Semantic Discovery Network for Visible-Infrared Person
Re-Identification [39.262536758248245]
モダリティ間の同一性マッチングは、VIReIDにおいて重要な課題である。
本稿では,CLIP-Driven Semantic Discovery Network(CSDN)を提案する。
論文 参考訳(メタデータ) (2024-01-11T10:20:13Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Shape-Erased Feature Learning for Visible-Infrared Person
Re-Identification [90.39454748065558]
体型は、VI-ReIDにとって重要なモダリティシェードの1つである。
本稿では,2つの部分空間におけるモダリティ共有特徴を関連づける形状学習パラダイムを提案する。
SYSU-MM01, RegDB, HITSZ-VCMデータセットを用いた実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-09T10:22:10Z) - A Semantic-aware Attention and Visual Shielding Network for
Cloth-changing Person Re-identification [29.026249268566303]
衣服交換者再識別(ReID)は,衣服が変更された歩行者を回収することを目的とした,新たな研究課題である。
異なる服装の人間の外見は大きなバリエーションを示すため、差別的かつ堅牢な特徴表現を抽出する既存のアプローチは非常に困難である。
本研究は, 着替え型ReIDのための新しい意味認識・視覚遮蔽ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-18T05:38:37Z) - CRIS: CLIP-Driven Referring Image Segmentation [71.56466057776086]
エンドツーエンドのCLIP駆動参照画像フレームワーク(CRIS)を提案する。
CRISは、テキストとピクセルのアライメントを達成するために、視覚言語によるデコーディングとコントラスト学習に頼っている。
提案するフレームワークは, 後処理を伴わずに, 最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-11-30T07:29:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。