論文の概要: Semantic-aware Consistency Network for Cloth-changing Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2308.14113v2
- Date: Sat, 28 Oct 2023 08:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 20:25:29.840796
- Title: Semantic-aware Consistency Network for Cloth-changing Person
Re-Identification
- Title(参考訳): 衣服交換者再識別のための意味認識一貫性ネットワーク
- Authors: Peini Guo, Hong Liu, Jianbing Wu, Guoquan Wang and Tao Wang
- Abstract要約: 本稿ではセマンティック・アウェア・コンシスタンス・ネットワーク(SCNet)を紹介し,アイデンティティに関連するセマンティックな特徴を学習する。
衣服領域の画素を消去することにより,黒衣画像を生成する。
さらに、高レベルのアイデンティティ関連セマンティック特徴の学習を容易にするために、セマンティック一貫性損失を設計する。
- 参考スコア(独自算出の注目度): 8.885551377703944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloth-changing Person Re-Identification (CC-ReID) is a challenging task that
aims to retrieve the target person across multiple surveillance cameras when
clothing changes might happen. Despite recent progress in CC-ReID, existing
approaches are still hindered by the interference of clothing variations since
they lack effective constraints to keep the model consistently focused on
clothing-irrelevant regions. To address this issue, we present a Semantic-aware
Consistency Network (SCNet) to learn identity-related semantic features by
proposing effective consistency constraints. Specifically, we generate the
black-clothing image by erasing pixels in the clothing area, which explicitly
mitigates the interference from clothing variations. In addition, to fully
exploit the fine-grained identity information, a head-enhanced attention module
is introduced, which learns soft attention maps by utilizing the proposed
part-based matching loss to highlight head information. We further design a
semantic consistency loss to facilitate the learning of high-level
identity-related semantic features, forcing the model to focus on semantically
consistent cloth-irrelevant regions. By using the consistency constraint, our
model does not require any extra auxiliary segmentation module to generate the
black-clothing image or locate the head region during the inference stage.
Extensive experiments on four cloth-changing person Re-ID datasets (LTCC, PRCC,
Vc-Clothes, and DeepChange) demonstrate that our proposed SCNet makes
significant improvements over prior state-of-the-art approaches. Our code is
available at: https://github.com/Gpn-star/SCNet.
- Abstract(参考訳): 服を交換する人物再識別(cc-reid)は、衣服が変わった場合、複数の監視カメラでターゲットの人物を検索することを目的としている。
CC-ReIDの最近の進歩にもかかわらず、既存のアプローチは、衣服関連領域に一貫して焦点を合わせるための効果的な制約がないため、服のバリエーションの干渉によって妨げられている。
この問題に対処するために,効率的な一貫性制約を提案することで,識別関連セマンティック・コンシステンシー・ネットワーク(SCNet)を提案する。
具体的には,衣服領域の画素を消去することにより,衣料変動からの干渉を明示的に緩和する黒衣画像を生成する。
また、この細粒度識別情報を十分に活用するために、提案する部分的マッチング損失を利用して頭部情報を強調してソフトアテンションマップを学習するヘッドエンハンスメントモジュールを導入する。
さらに,高レベルのアイデンティティ関連セマンティックな特徴の学習を容易にするために,セマンティックな一貫性の喪失を設計し,セマンティックに一貫性のない布の無関係な領域にモデルを集中させる。
整合性制約を用いることで,提案モデルでは,ブラッククロース画像の生成や,推論段階でのヘッド領域の特定に補助的なセグメンテーションモジュールを必要としない。
布を交換する4つのRe-IDデータセット(LTCC、PRCC、Vc-Clothes、DeepChange)の大規模な実験により、提案したSCNetは、最先端のアプローチよりも大幅に改善されていることが示された。
私たちのコードは、https://github.com/Gpn-star/SCNet.comで利用可能です。
関連論文リスト
- Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人の再識別は、重複しないカメラで同じ人の衣服の変化を認識することを目的としている。
本稿では、並列間セマンティクスの相互作用と洗練を容易にするコンテンツ・サリアンセマンティクス協調フレームワークを提案する。
我々のフレームワークはシンプルだが有効であり、重要な設計はセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールである。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Identity-aware Dual-constraint Network for Cloth-Changing Person Re-identification [13.709863134725335]
CC-ReID(CC-Changing Person Re-Identification)は、歩行者が着替えを行うより現実的な監視シナリオにおいて、対象者を正確に識別することを目的としている。
大きな進歩にもかかわらず、既存のCC-ReIDデータセットの限られた布質変化トレーニングサンプルは、モデルが布質非関連の特徴を適切に学習することを妨げている。
本稿では,CC-ReIDタスクのためのID-Aware Dual-Constraint Network (IDNet)を提案する。
論文 参考訳(メタデータ) (2024-03-13T05:46:36Z) - CCPA: Long-term Person Re-Identification via Contrastive Clothing and
Pose Augmentation [2.1756081703276]
長期の人物再同定は、長期にわたるカメラ間で個人をマッチングすることを目的としている。
我々は,LRe-IDのためのコントラスト的衣服とポース拡張フレームワークであるCCPAを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:16:34Z) - HFORD: High-Fidelity and Occlusion-Robust De-identification for Face
Privacy Protection [60.63915939982923]
顔の身元特定は、身元保護問題を解決するための実践的な方法である。
既存の顔の特定方法にはいくつかの問題がある。
これらの問題に対処するために,HFORD(High-Fidelity and Occlusion-Robust De-identification)法を提案する。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification [118.23912884472794]
衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
論文 参考訳(メタデータ) (2023-05-10T13:48:24Z) - A Semantic-aware Attention and Visual Shielding Network for
Cloth-changing Person Re-identification [29.026249268566303]
衣服交換者再識別(ReID)は,衣服が変更された歩行者を回収することを目的とした,新たな研究課題である。
異なる服装の人間の外見は大きなバリエーションを示すため、差別的かつ堅牢な特徴表現を抽出する既存のアプローチは非常に困難である。
本研究は, 着替え型ReIDのための新しい意味認識・視覚遮蔽ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-18T05:38:37Z) - Grasp-Oriented Fine-grained Cloth Segmentation without Real Supervision [66.56535902642085]
本稿では, 深度画像のみを用いて, 変形した衣服のきめ細かい領域検出の問題に取り組む。
最大で6つの意味領域を定義し, 首の縁, スリーブカフ, ヘム, 上と下をつかむ点を含む。
これらの部品のセグメント化とラベル付けを行うために,U-net ベースのネットワークを導入する。
合成データのみを用いてネットワークをトレーニングし、提案したDAが実データでトレーニングしたモデルと競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:31:20Z) - Cloth-Changing Person Re-identification from A Single Image with Gait
Prediction and Regularization [65.50321170655225]
本稿では,画像レイドモデルを用いて布非依存表現を学習するための補助タスクとして,歩行認識を導入する。
画像ベースのCloth-Changing ReIDベンチマーク(例えば、LTCC、PRCC、Real28、VC-Clothes)の実験は、GI-ReIDが最先端技術に対して好適に動作することを示した。
論文 参考訳(メタデータ) (2021-03-29T12:10:50Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。