論文の概要: Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification
- arxiv url: http://arxiv.org/abs/2305.06145v1
- Date: Wed, 10 May 2023 13:48:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:50:51.320583
- Title: Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification
- Title(参考訳): 衣服交換者再識別のための因果介入による衣服不変特徴学習
- Authors: Xulin Li, Yan Lu, Bin Liu, Yuenan Hou, Yating Liu, Qi Chu, Wanli
Ouyang, Nenghai Yu
- Abstract要約: 衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
- 参考スコア(独自算出の注目度): 118.23912884472794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clothes-invariant feature extraction is critical to the clothes-changing
person re-identification (CC-ReID). It can provide discriminative identity
features and eliminate the negative effects caused by the confounder--clothing
changes. But we argue that there exists a strong spurious correlation between
clothes and human identity, that restricts the common likelihood-based ReID
method P(Y|X) to extract clothes-irrelevant features. In this paper, we propose
a new Causal Clothes-Invariant Learning (CCIL) method to achieve
clothes-invariant feature learning by modeling causal intervention P(Y|do(X)).
This new causality-based model is inherently invariant to the confounder in the
causal view, which can achieve the clothes-invariant features and avoid the
barrier faced by the likelihood-based methods. Extensive experiments on three
CC-ReID benchmarks, including PRCC, LTCC, and VC-Clothes, demonstrate the
effectiveness of our approach, which achieves a new state of the art.
- Abstract(参考訳): 衣料変化者再識別(CC-ReID)には衣服不変の特徴抽出が重要である。
差別的アイデンティティ機能を提供し、共同設立者による変更によって生じる悪影響を排除できる。
しかし,衣服と身元には強い相関関係があることを論じ,衣服に関係のない特徴を抽出するために,共通可能性に基づくReID法P(Y|X)を制限している。
本稿では, 因果介入P(Y|do(X))をモデル化し, 衣服不変の特徴学習を実現するために, CCIL(Causal Clothes-Invariant Learning)法を提案する。
この新しい因果関係に基づくモデルは、本質的に共起者に対して因果的視点で不変であり、衣服不変な特徴を達成し、確率的手法が直面する障壁を避けることができる。
PRCC, LTCC, VC-Clothesの3つのCC-ReIDベンチマークによる大規模な実験により, 本手法の有効性が示された。
関連論文リスト
- Discriminative Pedestrian Features and Gated Channel Attention for Clothes-Changing Person Re-Identification [8.289726210177532]
衣服交換者再識別 (CC-ReID) の重要性が高まっている。
本稿では,歩行者画像から識別的特徴を効果的に抽出する手法を提案する。
2つの標準CC-ReIDデータセットを用いて実験を行い、提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-10-29T02:12:46Z) - On Feature Decorrelation in Cloth-Changing Person Re-identification [32.27835236681253]
衣服交換者再識別(CC-ReID)はコンピュータビジョンにおいて重要な課題である。
従来の方法では、複数のモダリティデータを統合するか、手動でアノテートされた衣料ラベルを使用する。
本稿では,密度比推定に基づく新しい正規化手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T22:25:37Z) - Features Reconstruction Disentanglement Cloth-Changing Person Re-Identification [1.5703073293718952]
衣服交換者再識別(CC-ReID)は、特定の歩行者を衣服交換シナリオで回収することを目的としている。
主な課題は、衣服に関する機能と衣服に関する無関係な機能を切り離すことである。
本稿では, 衣服関連・衣服関連の特徴を分離する機能であるFRD-ReIDを提案する。
論文 参考訳(メタデータ) (2024-07-15T13:08:42Z) - CLIP-Driven Cloth-Agnostic Feature Learning for Cloth-Changing Person Re-Identification [47.948622774810296]
衣服交換者再識別のためのCLIP-Driven Cloth-Agnostic Feature Learning (CCAF) という新しいフレームワークを提案する。
Invariant Feature Prompting (IFP) と Clothes Feature Minimization (CFM) の2つのモジュールがカスタム設計されている。
提案したCCAFの有効性を実証し、いくつかのCC-ReIDベンチマークで新たな最先端性能を実現した。
論文 参考訳(メタデータ) (2024-06-13T14:56:07Z) - Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人の再識別は、重複しないカメラで同じ人の衣服の変化を認識することを目的としている。
本稿では、並列間セマンティクスの相互作用と洗練を容易にするコンテンツ・サリアンセマンティクス協調フレームワークを提案する。
我々のフレームワークはシンプルだが有効であり、重要な設計はセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールである。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Rethinking Clothes Changing Person ReID: Conflicts, Synthesis, and Optimization [90.41318757397097]
衣服交換者再識別(CC-ReID)は,異なる服装の同一人物の画像を取得することを目的としている。
CC-ReIDにおける標準ReID学習目標と同一のクローン識別は、従来の研究では無視されてきた。
本研究では,標準学習と服飾変化学習(CC)の関連について検討し,この2つの目的の内的対立を先導する。
論文 参考訳(メタデータ) (2024-04-19T03:45:12Z) - Clothes-Changing Person Re-Identification with Feasibility-Aware Intermediary Matching [86.04494755636613]
現在の衣服変更者の再識別(re-id)アプローチは通常、衣服に関係のない特徴に基づいて検索を行う。
本稿では,ファッション関連機能を検索に利用するためのFAIMフレームワークを提案する。
提案手法は, 広く使用されている衣服変化型re-idベンチマークにおいて, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-15T06:58:09Z) - Identity-aware Dual-constraint Network for Cloth-Changing Person Re-identification [13.709863134725335]
CC-ReID(CC-Changing Person Re-Identification)は、歩行者が着替えを行うより現実的な監視シナリオにおいて、対象者を正確に識別することを目的としている。
大きな進歩にもかかわらず、既存のCC-ReIDデータセットの限られた布質変化トレーニングサンプルは、モデルが布質非関連の特徴を適切に学習することを妨げている。
本稿では,CC-ReIDタスクのためのID-Aware Dual-Constraint Network (IDNet)を提案する。
論文 参考訳(メタデータ) (2024-03-13T05:46:36Z) - GEFF: Improving Any Clothes-Changing Person ReID Model using Gallery
Enrichment with Face Features [11.189236254478057]
CC-ReID(Closes-Changing Re-Identification)問題では、人のクエリサンプルが与えられた場合、その人が異なる服装で現れるラベル付きギャラリーに基づいて正しいアイデンティティを決定することが目的である。
いくつかのモデルは、衣服に依存しない特徴を抽出することで、この問題に対処している。
衣料品関連の機能がデータの主要な機能であることが多いので、我々はギャラリー・エンリッチメントと呼ばれる新しいプロセスを提案する。
論文 参考訳(メタデータ) (2022-11-24T21:41:52Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。