論文の概要: Rethinking Clothes Changing Person ReID: Conflicts, Synthesis, and Optimization
- arxiv url: http://arxiv.org/abs/2404.12611v1
- Date: Fri, 19 Apr 2024 03:45:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 16:15:12.883604
- Title: Rethinking Clothes Changing Person ReID: Conflicts, Synthesis, and Optimization
- Title(参考訳): 人のReIDを変える衣服の再考: 矛盾、合成、最適化
- Authors: Junjie Li, Guanshuo Wang, Fufu Yu, Yichao Yan, Qiong Jia, Shouhong Ding, Xingdong Sheng, Yunhui Liu, Xiaokang Yang,
- Abstract要約: 衣服交換者再識別(CC-ReID)は,異なる服装の同一人物の画像を取得することを目的としている。
CC-ReIDにおける標準ReID学習目標と同一のクローン識別は、従来の研究では無視されてきた。
本研究では,標準学習と服飾変化学習(CC)の関連について検討し,この2つの目的の内的対立を先導する。
- 参考スコア(独自算出の注目度): 90.41318757397097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clothes-changing person re-identification (CC-ReID) aims to retrieve images of the same person wearing different outfits. Mainstream researches focus on designing advanced model structures and strategies to capture identity information independent of clothing. However, the same-clothes discrimination as the standard ReID learning objective in CC-ReID is persistently ignored in previous researches. In this study, we dive into the relationship between standard and clothes-changing~(CC) learning objectives, and bring the inner conflicts between these two objectives to the fore. We try to magnify the proportion of CC training pairs by supplementing high-fidelity clothes-varying synthesis, produced by our proposed Clothes-Changing Diffusion model. By incorporating the synthetic images into CC-ReID model training, we observe a significant improvement under CC protocol. However, such improvement sacrifices the performance under the standard protocol, caused by the inner conflict between standard and CC. For conflict mitigation, we decouple these objectives and re-formulate CC-ReID learning as a multi-objective optimization (MOO) problem. By effectively regularizing the gradient curvature across multiple objectives and introducing preference restrictions, our MOO solution surpasses the single-task training paradigm. Our framework is model-agnostic, and demonstrates superior performance under both CC and standard ReID protocols.
- Abstract(参考訳): 衣服交換者再識別(CC-ReID)は,異なる服装の同一人物の画像を取得することを目的としている。
主流研究は、衣服に依存しないアイデンティティ情報を取得するための高度なモデル構造と戦略の設計に焦点を当てている。
しかし、CC-ReIDにおける標準ReID学習目標と同一のクローン識別は、従来の研究では無視されている。
本研究では,標準型と服飾変化型(CC)学習目標の関係について検討し,これらの2つの目標間の内的対立を先導する。
提案したClothes-Changing Diffusionモデルを用いて,高忠実度衣服の合成を補足することにより,CCトレーニングペアの比率を増大させようとする。
合成画像をCC-ReIDモデルトレーニングに組み込むことで,CCプロトコル下での大幅な改善を観察する。
しかし、このような改善は標準プロトコルの下での性能を犠牲にし、標準とCCの内紛によって引き起こされる。
対立緩和のため、これらの目的を分離し、多目的最適化(MOO)問題としてCC-ReID学習を再生成する。
複数の目的にまたがる勾配曲率を効果的に調整し、選好制限を導入することで、MOOソリューションはシングルタスクトレーニングパラダイムを超越する。
我々のフレームワークはモデルに依存しず,CCプロトコルと標準ReIDプロトコルの両方で優れた性能を示す。
関連論文リスト
- On Feature Decorrelation in Cloth-Changing Person Re-identification [32.27835236681253]
衣服交換者再識別(CC-ReID)はコンピュータビジョンにおいて重要な課題である。
従来の方法では、複数のモダリティデータを統合するか、手動でアノテートされた衣料ラベルを使用する。
本稿では,密度比推定に基づく新しい正規化手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T22:25:37Z) - Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人の再識別は、重複しないカメラで同じ人の衣服の変化を認識することを目的としている。
本稿では、並列間セマンティクスの相互作用と洗練を容易にするコンテンツ・サリアンセマンティクス協調フレームワークを提案する。
我々のフレームワークはシンプルだが有効であり、重要な設計はセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールである。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Identity-aware Dual-constraint Network for Cloth-Changing Person Re-identification [13.709863134725335]
CC-ReID(CC-Changing Person Re-Identification)は、歩行者が着替えを行うより現実的な監視シナリオにおいて、対象者を正確に識別することを目的としている。
大きな進歩にもかかわらず、既存のCC-ReIDデータセットの限られた布質変化トレーニングサンプルは、モデルが布質非関連の特徴を適切に学習することを妨げている。
本稿では,CC-ReIDタスクのためのID-Aware Dual-Constraint Network (IDNet)を提案する。
論文 参考訳(メタデータ) (2024-03-13T05:46:36Z) - Semantic-aware Consistency Network for Cloth-changing Person
Re-Identification [8.885551377703944]
本稿ではセマンティック・アウェア・コンシスタンス・ネットワーク(SCNet)を紹介し,アイデンティティに関連するセマンティックな特徴を学習する。
衣服領域の画素を消去することにより,黒衣画像を生成する。
さらに、高レベルのアイデンティティ関連セマンティック特徴の学習を容易にするために、セマンティック一貫性損失を設計する。
論文 参考訳(メタデータ) (2023-08-27T14:07:57Z) - Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification [118.23912884472794]
衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
論文 参考訳(メタデータ) (2023-05-10T13:48:24Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - ReCLIP: A Strong Zero-Shot Baseline for Referring Expression
Comprehension [114.85628613911713]
大規模事前学習モデルは領域間の画像分類に有用である。
ReCLIPは単純だが強力なゼロショットベースラインであり、ReCのための最先端の大規模モデルであるCLIPを再利用する。
論文 参考訳(メタデータ) (2022-04-12T17:55:38Z) - Consensus Learning from Heterogeneous Objectives for One-Class
Collaborative Filtering [30.17063272667769]
本稿では、トレーニングプロセスを通じて異種目的からの相補性を生かした、ConCFという新しいフレームワークを提案する。
実世界のデータセットに関する我々の実験は、ConCFがモデルの一般化を著しく改善することを示した。
論文 参考訳(メタデータ) (2022-02-26T13:34:29Z) - Cloth-Changing Person Re-identification from A Single Image with Gait
Prediction and Regularization [65.50321170655225]
本稿では,画像レイドモデルを用いて布非依存表現を学習するための補助タスクとして,歩行認識を導入する。
画像ベースのCloth-Changing ReIDベンチマーク(例えば、LTCC、PRCC、Real28、VC-Clothes)の実験は、GI-ReIDが最先端技術に対して好適に動作することを示した。
論文 参考訳(メタデータ) (2021-03-29T12:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。