論文の概要: Identity-Guided Human Semantic Parsing for Person Re-Identification
- arxiv url: http://arxiv.org/abs/2007.13467v1
- Date: Mon, 27 Jul 2020 12:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:46:43.532025
- Title: Identity-Guided Human Semantic Parsing for Person Re-Identification
- Title(参考訳): 個人再同定のための識別誘導型人間意味解析
- Authors: Kuan Zhu, Haiyun Guo, Zhiwei Liu, Ming Tang, Jinqiao Wang
- Abstract要約: そこで本研究では,人物の身元と身元の両方を画素レベルで特定し,人物の身元を識別する「身元案内型人間意味解析」手法を提案する。
- 参考スコア(独自算出の注目度): 42.705908907250986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing alignment-based methods have to employ the pretrained human parsing
models to achieve the pixel-level alignment, and cannot identify the personal
belongings (e.g., backpacks and reticule) which are crucial to person re-ID. In
this paper, we propose the identity-guided human semantic parsing approach
(ISP) to locate both the human body parts and personal belongings at
pixel-level for aligned person re-ID only with person identity labels. We
design the cascaded clustering on feature maps to generate the pseudo-labels of
human parts. Specifically, for the pixels of all images of a person, we first
group them to foreground or background and then group the foreground pixels to
human parts. The cluster assignments are subsequently used as pseudo-labels of
human parts to supervise the part estimation and ISP iteratively learns the
feature maps and groups them. Finally, local features of both human body parts
and personal belongings are obtained according to the selflearned part
estimation, and only features of visible parts are utilized for the retrieval.
Extensive experiments on three widely used datasets validate the superiority of
ISP over lots of state-of-the-art methods. Our code is available at
https://github.com/CASIA-IVA-Lab/ISP-reID.
- Abstract(参考訳): 既存のアライメントベース手法では、ピクセルレベルのアライメントを達成するために事前訓練された人間解析モデルを用いる必要があり、パーソナライズに不可欠な個人的持ち物(バックパックやレティクルなど)は識別できない。
本稿では,人物識別ラベルのみと同一人物識別を行うために,人体の一部と個人所有物の両方をピクセルレベルで位置づけするための識別誘導型人間意味解析手法(isp)を提案する。
特徴マップ上のカスケードクラスタリングを設計し,人間の部分の擬似ラベルを生成する。
具体的には、人のすべての画像のピクセルについて、まず前景または背景にグループ化し、次に前景のピクセルを人間の部分にグループ化する。
クラスタ割り当てはその後、部分推定を監督するために人体の擬似ラベルとして使用され、ISPは特徴マップを反復的に学習し、グループ化する。
最後に、自己学習した部分推定に基づいて人体部と個人持ち物の双方の局所的特徴を求め、検索に可視的部分の特徴のみを利用する。
広く使われている3つのデータセットに対する大規模な実験は、多くの最先端手法よりもISPの優位性を検証する。
私たちのコードはhttps://github.com/CASIA-IVA-Lab/ISP-reIDで利用可能です。
関連論文リスト
- Disentangled Representations for Short-Term and Long-Term Person Re-Identification [33.76874948187976]
アイデンティティシャッフルGAN(Identity shuffle GAN:IS-GAN)と呼ばれる新たな生成対向ネットワークを提案する。
それは、アイデンティティシャッフル技術によって、個人画像からアイデンティティ関連および非関連の特徴を解き放つ。
実験により,IS-GANの有効性が検証され,標準reIDベンチマークにおける最先端性能が示された。
論文 参考訳(メタデータ) (2024-09-09T02:09:49Z) - DROP: Decouple Re-Identification and Human Parsing with Task-specific
Features for Occluded Person Re-identification [15.910080319118498]
本稿では,隠蔽者再識別(ReID)のためのDouple Re-identificatiOnとHuman Parsing(DROP)手法について紹介する。
ReIDと人間の構文解析の同時学習にグローバルな特徴を用いる主流のアプローチとは異なり、DROPは、前者の劣る性能はReIDと人間の解析機能の異なる要件に起因すると主張している。
実験の結果、DROPの有効性、特にOccluded-Dukeで76.8%のランク1の精度を達成し、2つの主要な方法を超えた。
論文 参考訳(メタデータ) (2024-01-31T17:54:43Z) - HAP: Structure-Aware Masked Image Modeling for Human-Centric Perception [97.55089867970874]
本稿では,この課題に対する事前学習手法として,マスク付き画像モデリング(MIM)を導入する。
この知見に触発され、人間の前部である直感的な人体構造を事前学習に組み込む。
これにより、モデルが事前トレーニング中に身体構造情報に集中し、さまざまな人間中心の知覚タスクに実質的な利益をもたらす。
論文 参考訳(メタデータ) (2023-10-31T17:56:11Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - PGGANet: Pose Guided Graph Attention Network for Person
Re-identification [0.0]
人物再識別(ReID)は、異なるカメラで撮影された画像から人物を回収することを目的としている。
局所的な特徴と人像のグローバルな特徴を併用することで、人物の検索に堅牢な特徴表現を与えることができることが証明されている。
本研究では,ポーズガイド付きグラフアテンションネットワーク,グローバル機能のための1つのブランチ,中粒体機能のための1つのブランチ,粒状キーポイント機能のための1つのブランチからなるマルチブランチアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-29T09:47:39Z) - CDGNet: Class Distribution Guided Network for Human Parsing [7.779985252025487]
我々は,水平方向と垂直方向の人間のパーシングラベルを蓄積することにより,事例クラス分布を作成する。
我々は2つのガイド付き特徴を組み合わせて空間誘導マップを作成し、それを乗算と連結によりベースラインネットワーク上に重ね合わせます。
論文 参考訳(メタデータ) (2021-11-28T15:18:53Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。