論文の概要: Pose-guided Feature Disentangling for Occluded Person Re-identification
Based on Transformer
- arxiv url: http://arxiv.org/abs/2112.02466v1
- Date: Sun, 5 Dec 2021 03:23:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 16:35:01.606001
- Title: Pose-guided Feature Disentangling for Occluded Person Re-identification
Based on Transformer
- Title(参考訳): 変圧器に基づくオクルード人物再同定のためのポーズ誘導特徴抽出
- Authors: Tao Wang, Hong Liu, Pinhao Song, Tianyu Guo, Wei Shi
- Abstract要約: 人体の一部が障害物によって遮られる可能性があるため、人体再同定は難しい作業です。
既存のポーズ誘導法では、グラフマッチングに従って身体部分を調整することでこの問題を解決している。
本稿では, ポーズ情報を利用して, 意味成分を明瞭にアンタングル化することで, トランスフォーマーに基づくPFD法を提案する。
- 参考スコア(独自算出の注目度): 15.839842504357144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Occluded person re-identification is a challenging task as human body parts
could be occluded by some obstacles (e.g. trees, cars, and pedestrians) in
certain scenes. Some existing pose-guided methods solve this problem by
aligning body parts according to graph matching, but these graph-based methods
are not intuitive and complicated. Therefore, we propose a transformer-based
Pose-guided Feature Disentangling (PFD) method by utilizing pose information to
clearly disentangle semantic components (e.g. human body or joint parts) and
selectively match non-occluded parts correspondingly. First, Vision Transformer
(ViT) is used to extract the patch features with its strong capability. Second,
to preliminarily disentangle the pose information from patch information, the
matching and distributing mechanism is leveraged in Pose-guided Feature
Aggregation (PFA) module. Third, a set of learnable semantic views are
introduced in transformer decoder to implicitly enhance the disentangled body
part features. However, those semantic views are not guaranteed to be related
to the body without additional supervision. Therefore, Pose-View Matching (PVM)
module is proposed to explicitly match visible body parts and automatically
separate occlusion features. Fourth, to better prevent the interference of
occlusions, we design a Pose-guided Push Loss to emphasize the features of
visible body parts. Extensive experiments over five challenging datasets for
two tasks (occluded and holistic Re-ID) demonstrate that our proposed PFD is
superior promising, which performs favorably against state-of-the-art methods.
Code is available at https://github.com/WangTaoAs/PFD_Net
- Abstract(参考訳): 蓄積された人物の再識別は、特定の場面で人体の一部が障害(木、車、歩行者など)によって妨げられるため、困難な作業である。
既存のポーズ誘導法は、グラフマッチングに従って身体部分を調整することでこの問題を解決するが、これらのグラフベースの手法は直感的で複雑ではない。
そこで,本稿では,ポーズ情報を利用して意味的要素(人体や関節部など)を明確に分離し,非閉塞部分と選択的に一致させることにより,トランスフォーマティブ型ポーズ案内特徴抽出(pfd)手法を提案する。
第一に、ViT(Vision Transformer)は、その強力な能力でパッチ機能を抽出するために使用される。
第2に、パッチ情報からポーズ情報を予め切り離すため、ポーズ案内特徴集約(pfa)モジュールにおいてマッチング・分散機構を利用する。
第3に、トランスフォーマデコーダに学習可能なセマンティクスビューのセットを導入し、不連続体部の特徴を暗黙的に強化する。
しかし、これらの意味論的な見解は、追加の監督なしでは身体に関連づけられることが保証されない。
したがって、PVM(Pose-View Matching)モジュールは、目に見える部分と明確に一致し、自動的に閉塞機能を分離するために提案されている。
第4に,咬合の干渉を効果的に防止するため,姿勢誘導型押圧損失をデザインし,目に見える身体部位の特徴を強調する。
2つのタスク(occluded と holistic re-id)に対する5つの挑戦的データセットに関する広範な実験は、提案されたpfdが優れた有望性を示し、最先端のメソッドに対して有利に機能することを示している。
コードはhttps://github.com/WangTaoAs/PFD_Netで入手できる。
関連論文リスト
- Feature Completion Transformer for Occluded Person Re-identification [25.159974510754992]
咬合者の再同定(Re-ID)は,咬合者の破壊による課題である。
特徴空間に隠された部分の意味情報を暗黙的に補完する特徴補完変換器(FCFormer)を提案する。
FCFormerは優れたパフォーマンスを実現し、隠蔽されたデータセットに対してかなりのマージンで最先端の手法を上回ります。
論文 参考訳(メタデータ) (2023-03-03T01:12:57Z) - Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning [8.015703163954639]
複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、歩行者や物体が被写体を隠蔽しているため困難である。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
本稿では,Occlusion Correction Network (OCNet) を提案する。Occlusion Correction Network (OCNet) は,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを使わずに多様で代表的な特徴を得られる。
論文 参考訳(メタデータ) (2022-12-09T07:48:47Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - UIA-ViT: Unsupervised Inconsistency-Aware Method based on Vision
Transformer for Face Forgery Detection [52.91782218300844]
そこで我々は、UIA-ViTと呼ばれるビジョン変換器に基づく教師なし不整合認識手法を提案する。
自己注意機構により、パッチ埋め込み間の注意マップは自然に一貫性関係を表現し、一貫性表現学習に適した視覚変換器となる。
論文 参考訳(メタデータ) (2022-10-23T15:24:47Z) - Motion-Aware Transformer For Occluded Person Re-identification [1.9899263094148867]
本研究では,非閉塞者Re-IDを用いた自己教師型深層学習手法を提案する。
従来の研究とは異なり、さまざまな姿勢の写真から得られる動き情報は、主要な人間の身体成分を識別するのに役立ちます。
論文 参考訳(メタデータ) (2022-02-09T02:53:10Z) - Pose-Guided Feature Learning with Knowledge Distillation for Occluded
Person Re-Identification [137.8810152620818]
PGFL-KD (Pose-Guided Feature Learning with Knowledge Distillation) というネットワークを提案する。
PGFL-KDは、メインブランチ(MB)と2つのポーズ誘導ブランチ(ieno)、フォアグラウンド強化ブランチ(FEB)、ボディ部分セマンティクス整列ブランチ(SAB)から構成される。
閉鎖型,部分的,包括型 ReID タスクの実験は,提案したネットワークの有効性を示す。
論文 参考訳(メタデータ) (2021-07-31T03:34:27Z) - AAformer: Auto-Aligned Transformer for Person Re-Identification [82.45385078624301]
トランスアーキテクチャにおけるアライメント方式を初めて導入する。
本研究では,人体と非人体の両方をパッチレベルで自動的に検出する自動整列トランス (AAformer) を提案する。
AAformerは、部分アライメントを自己アテンションに統合し、出力[PART]を直接検索する機能として使用することができる。
論文 参考訳(メタデータ) (2021-04-02T08:00:25Z) - AdaFuse: Adaptive Multiview Fusion for Accurate Human Pose Estimation in
the Wild [77.43884383743872]
本稿では,アダプティブなマルチビュー融合手法であるAdaFuseについて述べる。
我々は、Human3.6M、Total Capture、CMU Panopticの3つの公開データセットに対するアプローチを広く評価した。
また,大規模合成データセットOcclusion-Personを作成し,咬合関節の数値評価を行う。
論文 参考訳(メタデータ) (2020-10-26T03:19:46Z) - Pose-guided Visible Part Matching for Occluded Person ReID [80.81748252960843]
本稿では、ポーズ誘導による特徴の識別を共同で学習し、その部分の可視性を自己判断する Pose-Guided Visible Part Matching (PVPM) 法を提案する。
実験結果から,提案手法は最先端手法と競合する性能を示した。
論文 参考訳(メタデータ) (2020-04-01T04:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。