論文の概要: A Semantic-aware Attention and Visual Shielding Network for
Cloth-changing Person Re-identification
- arxiv url: http://arxiv.org/abs/2207.08387v1
- Date: Mon, 18 Jul 2022 05:38:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 17:18:05.781077
- Title: A Semantic-aware Attention and Visual Shielding Network for
Cloth-changing Person Re-identification
- Title(参考訳): 衣服交換者再識別のための意味認識と視覚遮蔽ネットワーク
- Authors: Zan Gao, Hongwei Wei, Weili Guan, Jie Nie, Meng Wang, Shenyong Chen
- Abstract要約: 衣服交換者再識別(ReID)は,衣服が変更された歩行者を回収することを目的とした,新たな研究課題である。
異なる服装の人間の外見は大きなバリエーションを示すため、差別的かつ堅牢な特徴表現を抽出する既存のアプローチは非常に困難である。
本研究は, 着替え型ReIDのための新しい意味認識・視覚遮蔽ネットワークを提案する。
- 参考スコア(独自算出の注目度): 28.484956232696394
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cloth-changing person reidentification (ReID) is a newly emerging research
topic that aims to retrieve pedestrians whose clothes are changed. Since the
human appearance with different clothes exhibits large variations, it is very
difficult for existing approaches to extract discriminative and robust feature
representations. Current works mainly focus on body shape or contour sketches,
but the human semantic information and the potential consistency of pedestrian
features before and after changing clothes are not fully explored or are
ignored. To solve these issues, in this work, a novel semantic-aware attention
and visual shielding network for cloth-changing person ReID (abbreviated as
SAVS) is proposed where the key idea is to shield clues related to the
appearance of clothes and only focus on visual semantic information that is not
sensitive to view/posture changes. Specifically, a visual semantic encoder is
first employed to locate the human body and clothing regions based on human
semantic segmentation information. Then, a human semantic attention module
(HSA) is proposed to highlight the human semantic information and reweight the
visual feature map. In addition, a visual clothes shielding module (VCS) is
also designed to extract a more robust feature representation for the
cloth-changing task by covering the clothing regions and focusing the model on
the visual semantic information unrelated to the clothes. Most importantly,
these two modules are jointly explored in an end-to-end unified framework.
Extensive experiments demonstrate that the proposed method can significantly
outperform state-of-the-art methods, and more robust features can be extracted
for cloth-changing persons. Compared with FSAM (published in CVPR 2021), this
method can achieve improvements of 32.7% (16.5%) and 14.9% (-) on the LTCC and
PRCC datasets in terms of mAP (rank-1), respectively.
- Abstract(参考訳): 着替え者の身元確認(reid)は、着替えられた歩行者を検索することを目的とした新たな研究テーマである。
異なる服装の人間の外見は大きなバリエーションを示すため、差別的かつ堅牢な特徴表現を抽出する既存のアプローチは非常に困難である。
現在の作品は主に体型や輪郭のスケッチに焦点が当てられているが、着替え前後の人間の意味情報や歩行者の特徴の潜在的な一貫性は十分に検討されていないか無視されている。
これらの課題を解決するために, 衣服の外観に関する手がかりを遮蔽し, 視線・姿勢の変化に敏感でない視覚的意味情報にのみ焦点をあてる, 布を交換するReID(SAVS)の新たな意味認識・視覚的遮蔽ネットワークを提案する。
具体的には、まず、人間の意味セマンティクスセグメンテーション情報に基づいて、人体および衣服領域の特定にビジュアルセマンティクスエンコーダを用いる。
そして、人間の意味情報を強調し、視覚特徴マップを再重み付けするために、ヒューマンセマンティックアテンションモジュール(HSA)を提案する。
さらに、衣服領域をカバーし、衣服とは無関係な視覚的意味情報にモデルを集中させることにより、衣服変更作業のためのより堅牢な特徴表現を抽出する視覚的衣服遮蔽モジュール(VCS)も設計されている。
最も重要なことは、これらの2つのモジュールはエンドツーエンドの統一フレームワークで共同で探索されることです。
広範な実験により,提案手法は最先端の手法を著しく上回ることができ,布交換者に対してより堅牢な特徴を抽出できることが示された。
FSAM (CVPR 2021) と比較すると、この手法はmAP (rank-1) でそれぞれ LTCC と PRCC のデータセットで 32.7% (16.5%) と 14.9% (-) の改善を達成できる。
関連論文リスト
- CLIP-Driven Cloth-Agnostic Feature Learning for Cloth-Changing Person Re-Identification [47.948622774810296]
衣服交換者再識別のためのCLIP-Driven Cloth-Agnostic Feature Learning (CCAF) という新しいフレームワークを提案する。
Invariant Feature Prompting (IFP) と Clothes Feature Minimization (CFM) の2つのモジュールがカスタム設計されている。
提案したCCAFの有効性を実証し、いくつかのCC-ReIDベンチマークで新たな最先端性能を実現した。
論文 参考訳(メタデータ) (2024-06-13T14:56:07Z) - Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人の再識別は、重複しないカメラで同じ人の衣服の変化を認識することを目的としている。
本稿では、並列間セマンティクスの相互作用と洗練を容易にするコンテンツ・サリアンセマンティクス協調フレームワークを提案する。
我々のフレームワークはシンプルだが有効であり、重要な設計はセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールである。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Identity-aware Dual-constraint Network for Cloth-Changing Person Re-identification [13.709863134725335]
CC-ReID(CC-Changing Person Re-Identification)は、歩行者が着替えを行うより現実的な監視シナリオにおいて、対象者を正確に識別することを目的としている。
大きな進歩にもかかわらず、既存のCC-ReIDデータセットの限られた布質変化トレーニングサンプルは、モデルが布質非関連の特徴を適切に学習することを妨げている。
本稿では,CC-ReIDタスクのためのID-Aware Dual-Constraint Network (IDNet)を提案する。
論文 参考訳(メタデータ) (2024-03-13T05:46:36Z) - Semantic-aware Consistency Network for Cloth-changing Person
Re-Identification [8.885551377703944]
本稿ではセマンティック・アウェア・コンシスタンス・ネットワーク(SCNet)を紹介し,アイデンティティに関連するセマンティックな特徴を学習する。
衣服領域の画素を消去することにより,黒衣画像を生成する。
さらに、高レベルのアイデンティティ関連セマンティック特徴の学習を容易にするために、セマンティック一貫性損失を設計する。
論文 参考訳(メタデータ) (2023-08-27T14:07:57Z) - Identity-Guided Collaborative Learning for Cloth-Changing Person
Reidentification [29.200286257496714]
着替え型ReIDのための新しいID誘導協調学習手法(IGCL)を提案する。
まず,衣服情報による干渉を合理的に低減するために,新しい衣服注意ストリームを設計する。
次に,人間のセマンティック・アテンションとボディー・ジグソー・ストリームを提案し,人間のセマンティック・情報を強調し,同じアイデンティティの異なるポーズをシミュレートする。
第3に、歩行者のアイデンティティ強化ストリームがさらに提案され、アイデンティティの重要性を高め、より好ましいアイデンティティロバストな特徴を抽出する。
論文 参考訳(メタデータ) (2023-04-10T06:05:54Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Multigranular Visual-Semantic Embedding for Cloth-Changing Person
Re-identification [38.7806002518266]
本研究は, 布を交換するReIDのための新しいビジュアル・セマンティック・埋め込み・アルゴリズム(MVSE)を提案する。
衣服の変化のある人を完全に表現するために、多粒性特徴表現スキーム(MGR)を採用し、その後、布脱感ネットワーク(CDN)を設計する。
人的属性の整合に使用される視覚意味情報を得るために,部分意味整合ネットワーク(PSA)を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:14:44Z) - Semantic-guided Pixel Sampling for Cloth-Changing Person
Re-identification [80.70419698308064]
本稿では,テクスチャ変更者のre-IDタスクに対する意味誘導型画素サンプリング手法を提案する。
まず、歩行者の上着とズボンを認識し、次に他の歩行者からピクセルをサンプリングしてランダムに変更します。
本手法は65.8%をランク1精度で達成し, 従来手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2021-07-24T03:41:00Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。