論文の概要: Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification
- arxiv url: http://arxiv.org/abs/2305.06145v1
- Date: Wed, 10 May 2023 13:48:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:50:51.320583
- Title: Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification
- Title(参考訳): 衣服交換者再識別のための因果介入による衣服不変特徴学習
- Authors: Xulin Li, Yan Lu, Bin Liu, Yuenan Hou, Yating Liu, Qi Chu, Wanli
Ouyang, Nenghai Yu
- Abstract要約: 衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
- 参考スコア(独自算出の注目度): 118.23912884472794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clothes-invariant feature extraction is critical to the clothes-changing
person re-identification (CC-ReID). It can provide discriminative identity
features and eliminate the negative effects caused by the confounder--clothing
changes. But we argue that there exists a strong spurious correlation between
clothes and human identity, that restricts the common likelihood-based ReID
method P(Y|X) to extract clothes-irrelevant features. In this paper, we propose
a new Causal Clothes-Invariant Learning (CCIL) method to achieve
clothes-invariant feature learning by modeling causal intervention P(Y|do(X)).
This new causality-based model is inherently invariant to the confounder in the
causal view, which can achieve the clothes-invariant features and avoid the
barrier faced by the likelihood-based methods. Extensive experiments on three
CC-ReID benchmarks, including PRCC, LTCC, and VC-Clothes, demonstrate the
effectiveness of our approach, which achieves a new state of the art.
- Abstract(参考訳): 衣料変化者再識別(CC-ReID)には衣服不変の特徴抽出が重要である。
差別的アイデンティティ機能を提供し、共同設立者による変更によって生じる悪影響を排除できる。
しかし,衣服と身元には強い相関関係があることを論じ,衣服に関係のない特徴を抽出するために,共通可能性に基づくReID法P(Y|X)を制限している。
本稿では, 因果介入P(Y|do(X))をモデル化し, 衣服不変の特徴学習を実現するために, CCIL(Causal Clothes-Invariant Learning)法を提案する。
この新しい因果関係に基づくモデルは、本質的に共起者に対して因果的視点で不変であり、衣服不変な特徴を達成し、確率的手法が直面する障壁を避けることができる。
PRCC, LTCC, VC-Clothesの3つのCC-ReIDベンチマークによる大規模な実験により, 本手法の有効性が示された。
関連論文リスト
- Identity-aware Dual-constraint Network for Cloth-Changing Person
Re-identification [14.527187885689381]
CC-ReID(CC-Changing Person Re-Identification)は、歩行者が着替えを行うより現実的な監視シナリオにおいて、対象者を正確に識別することを目的としている。
大きな進歩にもかかわらず、既存のCC-ReIDデータセットの限られた布質変化トレーニングサンプルは、モデルが布質非関連の特徴を適切に学習することを妨げている。
本稿では,CC-ReIDタスクのためのID-Aware Dual-Constraint Network (IDNet)を提案する。
論文 参考訳(メタデータ) (2024-03-13T05:46:36Z) - Masked Attribute Description Embedding for Cloth-Changing Person
Re-identification [70.49671890605497]
衣服交換者再識別(CC-ReID)は,長期にわたって衣服を交換する者をマッチングすることを目的としている。
CC-ReIDの鍵となる課題は、顔、髪型、体型、歩行など、衣服に依存しない特徴を抽出することである。
CC-ReIDの視覚的外観と属性記述を統一するMasked Attribute Description Embedding (MADE)法を提案する。
論文 参考訳(メタデータ) (2024-01-11T03:47:13Z) - Semantic-aware Consistency Network for Cloth-changing Person
Re-Identification [8.885551377703944]
本稿ではセマンティック・アウェア・コンシスタンス・ネットワーク(SCNet)を紹介し,アイデンティティに関連するセマンティックな特徴を学習する。
衣服領域の画素を消去することにより,黒衣画像を生成する。
さらに、高レベルのアイデンティティ関連セマンティック特徴の学習を容易にするために、セマンティック一貫性損失を設計する。
論文 参考訳(メタデータ) (2023-08-27T14:07:57Z) - Exploring Fine-Grained Representation and Recomposition for
Cloth-Changing Person Re-Identification [85.41212650837704]
補助情報のない2つの制限に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - GEFF: Improving Any Clothes-Changing Person ReID Model using Gallery
Enrichment with Face Features [11.189236254478057]
CC-ReID(Closes-Changing Re-Identification)問題では、人のクエリサンプルが与えられた場合、その人が異なる服装で現れるラベル付きギャラリーに基づいて正しいアイデンティティを決定することが目的である。
いくつかのモデルは、衣服に依存しない特徴を抽出することで、この問題に対処している。
衣料品関連の機能がデータの主要な機能であることが多いので、我々はギャラリー・エンリッチメントと呼ばれる新しいプロセスを提案する。
論文 参考訳(メタデータ) (2022-11-24T21:41:52Z) - Identity-Sensitive Knowledge Propagation for Cloth-Changing Person
Re-identification [17.588668735411783]
衣服交換者再識別(CC-ReID)は、衣服の変化による人物の身元を一致させることを目的としている。
典型的なバイオメトリックスに基づくCC-ReID法は、人間の生体特性から布に関係のない特徴を学習するために、面倒なポーズや身体部分の推定器を必要とする。
本稿では,CC-ReIDのための効果的なアイデンティティ・センシティブな知識伝達フレームワーク(DeSKPro)を提案する。
我々のフレームワークは最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-08-25T12:01:49Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。