論文の概要: DIFFER: Disentangling Identity Features via Semantic Cues for Clothes-Changing Person Re-ID
- arxiv url: http://arxiv.org/abs/2503.22912v1
- Date: Fri, 28 Mar 2025 23:40:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:36:14.216753
- Title: DIFFER: Disentangling Identity Features via Semantic Cues for Clothes-Changing Person Re-ID
- Title(参考訳): DIFFER: 衣服交換者Re-IDのためのセマンティックキューによるアイデンティティ機能の拡張
- Authors: Xin Liang, Yogesh S Rawat,
- Abstract要約: 衣服交換者再識別(CC-ReID)は、異なる衣服シナリオの下で個人を認識することを目的としている。
現在のCC-ReIDアプローチは、シルエット、ポーズ、ボディメッシュといった追加のモダリティを使用して、体形をモデル化することに集中している。
DIFFER: Disentangle Identity Features From Entangled Representations, a novel adversarial learning method that leverages textual descriptions to disentangle Identity Features。
- 参考スコア(独自算出の注目度): 15.204652332980672
- License:
- Abstract: Clothes-changing person re-identification (CC-ReID) aims to recognize individuals under different clothing scenarios. Current CC-ReID approaches either concentrate on modeling body shape using additional modalities including silhouette, pose, and body mesh, potentially causing the model to overlook other critical biometric traits such as gender, age, and style, or they incorporate supervision through additional labels that the model tries to disregard or emphasize, such as clothing or personal attributes. However, these annotations are discrete in nature and do not capture comprehensive descriptions. In this work, we propose DIFFER: Disentangle Identity Features From Entangled Representations, a novel adversarial learning method that leverages textual descriptions to disentangle identity features. Recognizing that image features inherently mix inseparable information, DIFFER introduces NBDetach, a mechanism designed for feature disentanglement by leveraging the separable nature of text descriptions as supervision. It partitions the feature space into distinct subspaces and, through gradient reversal layers, effectively separates identity-related features from non-biometric features. We evaluate DIFFER on 4 different benchmark datasets (LTCC, PRCC, CelebreID-Light, and CCVID) to demonstrate its effectiveness and provide state-of-the-art performance across all the benchmarks. DIFFER consistently outperforms the baseline method, with improvements in top-1 accuracy of 3.6% on LTCC, 3.4% on PRCC, 2.5% on CelebReID-Light, and 1% on CCVID. Our code can be found here.
- Abstract(参考訳): 衣服交換者再識別(CC-ReID)は、異なる衣服シナリオの下で個人を認識することを目的としている。
現在のCC-ReIDアプローチでは、シルエット、ポーズ、ボディメッシュなどの追加のモダリティを使用して体形をモデリングすることに集中しており、モデルが性、年齢、スタイルなどの他の重要な生体認証特性を見落としさせる可能性がある。
しかし、これらのアノテーションは本質的には離散的であり、包括的な記述を捉えていない。
そこで本研究では, テキスト記述を利用した新たな逆学習手法であるDIFFER: Disentangle Identity Features From Entangled Representationsを提案する。
画像の特徴が本質的に分離不能な情報を混在していることを認識し、DIFFERはNBDetachを導入した。
特徴空間を異なる部分空間に分割し、勾配反転層を通じて、識別に関連する特徴と非生体的特徴を効果的に分離する。
本研究は,4つのベンチマークデータセット(LTCC,PRCC,CelebreID-Light,CCVID)上でDIFFERを評価し,その有効性を実証し,すべてのベンチマークに対して最先端のパフォーマンスを提供する。
DIFFERは、LTCCで3.6%、PRCCで3.4%、CelebReID-Lightで2.5%、CCVIDで1%という、ベースライン法よりも一貫して優れている。
私たちのコードはここにある。
関連論文リスト
- See What You Seek: Semantic Contextual Integration for Cloth-Changing Person Re-Identification [16.845045499676793]
衣服交換者再識別(CC-ReID)は、衣服の変化にもかかわらず、複数の監視カメラで個人をマッチングすることを目的としている。
既存の方法は通常、衣服の変化の影響を緩和したり、ID関連機能を強化することに重点を置いている。
本稿では,CC-ReIDのための新しいプロンプト学習フレームワークSemantic Contextual Integration(SCI)を提案する。
論文 参考訳(メタデータ) (2024-12-02T10:11:16Z) - Disentangled Representations for Short-Term and Long-Term Person Re-Identification [33.76874948187976]
アイデンティティシャッフルGAN(Identity shuffle GAN:IS-GAN)と呼ばれる新たな生成対向ネットワークを提案する。
それは、アイデンティティシャッフル技術によって、個人画像からアイデンティティ関連および非関連の特徴を解き放つ。
実験により,IS-GANの有効性が検証され,標準reIDベンチマークにおける最先端性能が示された。
論文 参考訳(メタデータ) (2024-09-09T02:09:49Z) - Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人物の再識別は、重複しないカメラで同じ人物の衣服の変化を認識することを目的としている。
衣服の外観からの干渉を効果的に軽減し、堅牢なアイデンティティ関連コンテンツと有能なセマンティックス・セマンティックス・マイニング・リファインメント(SMR)を抽出する統合されたセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールを提案する。
提案手法は,3種類の布質変化ベンチマーク上での最先端性能を実現し,先進的な競合相手に対する優位性を実証する。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Masked Attribute Description Embedding for Cloth-Changing Person Re-identification [66.53045140286987]
衣服交換者再識別(CC-ReID)は,長期にわたって衣服を交換する者をマッチングすることを目的としている。
CC-ReIDの鍵となる課題は、顔、髪型、体型、歩行など、衣服に依存しない特徴を抽出することである。
CC-ReIDの視覚的外観と属性記述を統一するMasked Attribute Description Embedding (MADE)法を提案する。
論文 参考訳(メタデータ) (2024-01-11T03:47:13Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Identity-Aware Semi-Supervised Learning for Comic Character
Re-Identification [2.4624325014867763]
本稿では,メタラーニングと新しい「アイデンティティ・アウェア」自己監督手法を組み合わせた頑健なフレームワークを提案する。
我々のアプローチは、統合されたネットワークアーキテクチャにおいて、顔と身体の両方の機能を処理することである。
シリーズ内評価とシリーズ間評価の指標を用いて,本手法を広範囲に検証することにより,漫画のキャラクターを一貫した同定において,その有効性を示す。
論文 参考訳(メタデータ) (2023-08-17T16:48:41Z) - Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification [118.23912884472794]
衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
論文 参考訳(メタデータ) (2023-05-10T13:48:24Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。