論文の概要: Pose-guided Visible Part Matching for Occluded Person ReID
- arxiv url: http://arxiv.org/abs/2004.00230v1
- Date: Wed, 1 Apr 2020 04:36:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:55:55.042466
- Title: Pose-guided Visible Part Matching for Occluded Person ReID
- Title(参考訳): 被占領者ReIDに対するPose-Guided Visible Part Matching
- Authors: Shang Gao, Jingya Wang, Huchuan Lu, Zimo Liu
- Abstract要約: 本稿では、ポーズ誘導による特徴の識別を共同で学習し、その部分の可視性を自己判断する Pose-Guided Visible Part Matching (PVPM) 法を提案する。
実験結果から,提案手法は最先端手法と競合する性能を示した。
- 参考スコア(独自算出の注目度): 80.81748252960843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Occluded person re-identification is a challenging task as the appearance
varies substantially with various obstacles, especially in the crowd scenario.
To address this issue, we propose a Pose-guided Visible Part Matching (PVPM)
method that jointly learns the discriminative features with pose-guided
attention and self-mines the part visibility in an end-to-end framework.
Specifically, the proposed PVPM includes two key components: 1) pose-guided
attention (PGA) method for part feature pooling that exploits more
discriminative local features; 2) pose-guided visibility predictor (PVP) that
estimates whether a part suffers the occlusion or not. As there are no ground
truth training annotations for the occluded part, we turn to utilize the
characteristic of part correspondence in positive pairs and self-mining the
correspondence scores via graph matching. The generated correspondence scores
are then utilized as pseudo-labels for visibility predictor (PVP). Experimental
results on three reported occluded benchmarks show that the proposed method
achieves competitive performance to state-of-the-art methods. The source codes
are available at https://github.com/hh23333/PVPM
- Abstract(参考訳): 特に群衆のシナリオでは、見かけが様々な障害物によって大きく変化するため、オクルードされた人物の再識別は難しい課題である。
そこで本研究では,ポーズガイド付き注意で識別特徴を共同学習し,エンド・ツー・エンドのフレームワークで部分視認性を自己損なうポーズガイド可視部マッチング(pvpm)手法を提案する。
具体的には,提案するPVPMには2つの重要な要素がある。
1) より差別的な局所的特徴を活用する部分的特徴プールのためのポーズ誘導注意法(PGA)
2) 咬合に苦しむか否かを推定するポーズ誘導可視性予測装置(pvp)。
有意な部分に対する基礎的真理学習用アノテーションは存在せず、正のペアにおける部分対応の特徴を活用し、グラフマッチングによる対応スコアの自己マイニングを行う。
生成された対応スコアは、可視性予測(PVP)のための擬似ラベルとして使用される。
3つのoccludedベンチマークにおける実験結果から,提案手法は最先端手法と競合する性能が得られることがわかった。
ソースコードはhttps://github.com/hh23333/PVPMで入手できる。
関連論文リスト
- ProFD: Prompt-Guided Feature Disentangling for Occluded Person Re-Identification [34.38227097059117]
本稿では,Prompt-Guided Feature Disentangling法(ProFD)を提案する。
ProFDはまず部分固有のプロンプトを設計し、ノイズセグメンテーションマスクを用いて視覚とテキストの埋め込みを予め調整する。
我々は,CLIPの事前訓練された知識を保ち,過度な適合を緩和する自己蒸留戦略を採用している。
論文 参考訳(メタデータ) (2024-09-30T08:31:14Z) - DualFocus: Integrating Plausible Descriptions in Text-based Person Re-identification [6.381155145404096]
我々は、パーソナライゼーションタスクにおける視覚言語モデルの解釈精度を高めるために、もっともらしい記述を統合する統合フレームワークであるDualFocusを紹介する。
視覚的およびテキスト的埋め込みの粗いアライメントときめ細かなアライメントのバランスを実現するために,DTS(Dynamic Tokenwise similarity)損失を提案する。
The comprehensive experiment on CUHK-PEDES, ICFG-PEDES, and RSTPReid, DualFocus shows superior performance than the State-of-the-art method。
論文 参考訳(メタデータ) (2024-05-13T04:21:00Z) - DiP: Learning Discriminative Implicit Parts for Person Re-Identification [18.89539401924382]
我々は,明示的な身体部分から分離された識別的暗黙的部分(DiP)を学習することを提案する。
また、各DiPに対して幾何学的解釈を与えるために、新しい暗黙的位置を提案する。
提案手法は,複数人のReIDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-12-24T17:59:01Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Quality-aware Part Models for Occluded Person Re-identification [77.24920810798505]
咬合は人体再識別(ReID)にとって大きな課題となる
既存のアプローチは一般的に、計算効率とReIDの精度の両面で最適であるように、目に見える身体の部品を推測するための外部ツールに依存している。
閉塞型ReIDのためのQPM(Quality-Aware Part Models)という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:51:09Z) - Dual Contrastive Learning for General Face Forgery Detection [64.41970626226221]
本稿では,正と負のペアデータを構成するDCL (Dual Contrastive Learning) という新しい顔偽造検出フレームワークを提案する。
本研究は, 事例内コントラスト学習(Intra-ICL)において, 偽造顔における局所的内容の不整合に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-27T05:44:40Z) - Pose-guided Feature Disentangling for Occluded Person Re-identification
Based on Transformer [15.839842504357144]
人体の一部が障害物によって遮られる可能性があるため、人体再同定は難しい作業です。
既存のポーズ誘導法では、グラフマッチングに従って身体部分を調整することでこの問題を解決している。
本稿では, ポーズ情報を利用して, 意味成分を明瞭にアンタングル化することで, トランスフォーマーに基づくPFD法を提案する。
論文 参考訳(メタデータ) (2021-12-05T03:23:31Z) - Pose-Guided Feature Learning with Knowledge Distillation for Occluded
Person Re-Identification [137.8810152620818]
PGFL-KD (Pose-Guided Feature Learning with Knowledge Distillation) というネットワークを提案する。
PGFL-KDは、メインブランチ(MB)と2つのポーズ誘導ブランチ(ieno)、フォアグラウンド強化ブランチ(FEB)、ボディ部分セマンティクス整列ブランチ(SAB)から構成される。
閉鎖型,部分的,包括型 ReID タスクの実験は,提案したネットワークの有効性を示す。
論文 参考訳(メタデータ) (2021-07-31T03:34:27Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。