論文の概要: MSP-ReID: Hairstyle-Robust Cloth-Changing Person Re-Identification
- arxiv url: http://arxiv.org/abs/2603.01640v2
- Date: Sat, 07 Mar 2026 08:39:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 12:41:26.022335
- Title: MSP-ReID: Hairstyle-Robust Cloth-Changing Person Re-Identification
- Title(参考訳): MSP-ReID:Hairstyle-Robust Cloth-Changing Person Re-Identification
- Authors: Xiangyang He, Lin Wan,
- Abstract要約: 本稿では,頭部を水平に処理するMSP(Mitigating Hairstyle Distraction and Structure Preservation)フレームワークを提案する。
HSOAは、髪型依存性を減らし、安定した顔と身体の手がかりへの注意を高めるために、アイデンティティ内髪型多様性を生成する。
CPREは、体型とコンテキストを維持しながら、テクスチャバイアスを抑制するために、衣服領域内で比制御消去を行う。
RPAは、毛髪の特徴を抑えながら顔と手足の領域を強調させるパーシングガイドを取り入れている。
- 参考スコア(独自算出の注目度): 1.898449283361381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloth-Changing Person Re-Identification (CC-ReID) aims to match the same individual across cameras under varying clothing conditions. Existing approaches often remove apparel and focus on the head region to reduce clothing bias. However, treating the head holistically without distinguishing between face and hair leads to over-reliance on volatile hairstyle cues, causing performance degradation under hairstyle changes. To address this issue, we propose the Mitigating Hairstyle Distraction and Structural Preservation (MSP) framework. Specifically, MSP introduces Hairstyle-Oriented Augmentation (HSOA), which generates intra-identity hairstyle diversity to reduce hairstyle dependence and enhance attention to stable facial and body cues. To prevent the loss of structural information, we design Cloth-Preserved Random Erasing (CPRE), which performs ratio-controlled erasing within clothing regions to suppress texture bias while retaining body shape and context. Furthermore, we employ Region-based Parsing Attention (RPA) to incorporate parsing-guided priors that highlight face and limb regions while suppressing hair features. Extensive experiments on multiple CC-ReID benchmarks demonstrate that MSP achieves state-of-the-art performance, providing a robust and practical solution for long-term person re-identification.
- Abstract(参考訳): CC-ReID(CC-Changing Person Re-Identification)は、異なる衣服条件下でカメラ間で同一人物をマッチングすることを目的としている。
既存のアプローチはしばしばアパレルを取り除き、衣服のバイアスを減らすために頭部領域に集中する。
しかし、顔と毛髪を区別することなく頭部を均等に扱うと、揮発性髪型に過度に依存し、髪型の変化による性能低下を引き起こす。
そこで本研究では,MSP(Mitigating Hairstyle Distraction and Structure Preservation)フレームワークを提案する。
具体的には、髪型指向性増強(HSOA)を導入し、髪型依存を減らし、安定した顔と身体の手がかりに注意を向ける。
構造情報の喪失を防止するため,衣服領域内で比制御された消去を行う衣料保存ランダム消去(CPRE)を設計し,体型やコンテキストを維持しながらテクスチャバイアスを抑制する。
さらに, 毛髪の特徴を抑えつつ, 顔と手足の領域を強調させるパーシングガイドを組み込むために, 地域型パーシング注意(RPA)を採用している。
複数のCC-ReIDベンチマークに対する大規模な実験は、MSPが最先端のパフォーマンスを達成し、長期的な人物再識別のための堅牢で実用的なソリューションを提供することを示した。
関連論文リスト
- SIDeR: Semantic Identity Decoupling for Unrestricted Face Privacy [53.75084833636302]
本稿では,非制限顔プライバシー保護のためのセマンティックデカップリング駆動フレームワークSIDeRを提案する。
SIDeRは、顔画像をマシン認識可能な識別特徴ベクトルと視覚的に知覚可能なセマンティックな外観成分に分解する。
認証されたアクセスのために、SIDeRは正しいパスワードが提供されるときに元の形式に復元できる。
論文 参考訳(メタデータ) (2026-02-04T19:30:48Z) - Realistic and Efficient Face Swapping: A Unified Approach with Diffusion Models [69.50286698375386]
フェース・スワッピングのための拡散モデルを改善する新しい手法を提案する。
インペイントトレーニング中にマスクシャッフル技術を導入し、スワップのためのいわゆるユニバーサルモデルを作成することができる。
私たちのアプローチは比較的統一されたアプローチなので、他のオフザシェルフモデルのエラーに対して耐性があります。
論文 参考訳(メタデータ) (2024-09-11T13:43:53Z) - What to Preserve and What to Transfer: Faithful, Identity-Preserving Diffusion-based Hairstyle Transfer [35.80645300182437]
既存の髪型移行アプローチはStyleGANに依存している。
本稿では,現実のシナリオに適用可能な一段階のヘアスタイル転移拡散モデルであるHairFusionを提案する。
本手法は, ヘアスタイルと周辺特性の整合性を維持する既存手法と比較して, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-29T11:30:21Z) - Features Reconstruction Disentanglement Cloth-Changing Person Re-Identification [1.5703073293718952]
衣服交換者再識別(CC-ReID)は、特定の歩行者を衣服交換シナリオで回収することを目的としている。
主な課題は、衣服に関する機能と衣服に関する無関係な機能を切り離すことである。
本稿では, 衣服関連・衣服関連の特徴を分離する機能であるFRD-ReIDを提案する。
論文 参考訳(メタデータ) (2024-07-15T13:08:42Z) - Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人物の再識別は、重複しないカメラで同じ人物の衣服の変化を認識することを目的としている。
衣服の外観からの干渉を効果的に軽減し、堅牢なアイデンティティ関連コンテンツと有能なセマンティックス・セマンティックス・マイニング・リファインメント(SMR)を抽出する統合されたセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールを提案する。
提案手法は,3種類の布質変化ベンチマーク上での最先端性能を実現し,先進的な競合相手に対する優位性を実証する。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Disentangle Before Anonymize: A Two-stage Framework for Attribute-preserved and Occlusion-robust De-identification [55.741525129613535]
匿名化前の混乱」は、新しい二段階フレームワーク(DBAF)である
このフレームワークには、Contrastive Identity Disentanglement (CID)モジュールとKey-authorized Reversible Identity Anonymization (KRIA)モジュールが含まれている。
大規模な実験により,本手法は最先端の非識別手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Semantic-aware Consistency Network for Cloth-changing Person
Re-Identification [8.885551377703944]
本稿ではセマンティック・アウェア・コンシスタンス・ネットワーク(SCNet)を紹介し,アイデンティティに関連するセマンティックな特徴を学習する。
衣服領域の画素を消去することにより,黒衣画像を生成する。
さらに、高レベルのアイデンティティ関連セマンティック特徴の学習を容易にするために、セマンティック一貫性損失を設計する。
論文 参考訳(メタデータ) (2023-08-27T14:07:57Z) - Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification [118.23912884472794]
衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
論文 参考訳(メタデータ) (2023-05-10T13:48:24Z) - Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle
Transfer via Local-Style-Aware Hair Alignment [29.782276472922398]
本稿では,ポーズ不変なヘアスタイル転送モデルを提案する。
提案モデルでは,より大きなポーズの違い下で髪型を転写し,局所的な髪型テクスチャを保った。
論文 参考訳(メタデータ) (2022-08-16T14:23:54Z) - LOHO: Latent Optimization of Hairstyles via Orthogonalization [20.18175263304822]
本稿では, 髪型移動中の潜伏空間における毛髪構造の詳細を埋め込むために, GANインバージョンを用いた最適化に基づくアプローチを提案する。
提案手法は毛髪を知覚的構造,外観,スタイルの3つの属性に分解し,それぞれの属性を個別にモデル化するための調整された損失を含む。
論文 参考訳(メタデータ) (2021-03-05T19:00:33Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。