論文の概要: PAFormer: Part Aware Transformer for Person Re-identification
- arxiv url: http://arxiv.org/abs/2408.05918v1
- Date: Mon, 12 Aug 2024 04:46:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 14:45:05.063319
- Title: PAFormer: Part Aware Transformer for Person Re-identification
- Title(参考訳): PAFormer: 人物識別のための部分認識変換器
- Authors: Hyeono Jung, Jangwon Lee, Jiwon Yoo, Dami Ko, Gyeonghwan Kim,
- Abstract要約: ポーズ推定に基づくReIDモデルである textbf Part Aware Transformer (PAFormer) を導入する。
提案手法は,有名なReIDベンチマークデータセットにおける既存手法よりも優れている。
- 参考スコア(独自算出の注目度): 3.8004980982852214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Within the domain of person re-identification (ReID), partial ReID methods are considered mainstream, aiming to measure feature distances through comparisons of body parts between samples. However, in practice, previous methods often lack sufficient awareness of anatomical aspect of body parts, resulting in the failure to capture features of the same body parts across different samples. To address this issue, we introduce \textbf{Part Aware Transformer (PAFormer)}, a pose estimation based ReID model which can perform precise part-to-part comparison. In order to inject part awareness to pose tokens, we introduce learnable parameters called `pose token' which estimate the correlation between each body part and partial regions of the image. Notably, at inference phase, PAFormer operates without additional modules related to body part localization, which is commonly used in previous ReID methodologies leveraging pose estimation models. Additionally, leveraging the enhanced awareness of body parts, PAFormer suggests the use of a learning-based visibility predictor to estimate the degree of occlusion for each body part. Also, we introduce a teacher forcing technique using ground truth visibility scores which enables PAFormer to be trained only with visible parts. A set of extensive experiments show that our method outperforms existing approaches on well-known ReID benchmark datasets.
- Abstract(参考訳): 人物再同定(ReID)の領域内では、部分的なReID法が主流であり、サンプル間の身体部分の比較を通じて特徴距離を測定することを目的としている。
しかし、実際には、以前の方法では身体の解剖学的側面に対する十分な認識が欠如しており、その結果、異なるサンプル間で同じ身体部位の特徴を捉えられなかった。
この問題を解決するために,ポーズ推定に基づくReIDモデルである \textbf{Part Aware Transformer (PAFormer)} を導入する。
本研究では,各身体部分と画像の部分領域との相関関係を推定する「目的トークン」と呼ばれる学習可能なパラメータを導入する。
特に、推論フェーズでは、PAFormerはボディ部分のローカライゼーションに関連する追加モジュールなしで動作します。
さらに, PAFormerでは, 身体部位の認知度を高めることによって, 各部位の閉塞度を推定するために, 学習に基づく可視性予測器の利用を提案する。
また,本研究では,可視部分のみを用いてPAFormerをトレーニング可能な,地上の真理可視スコアを用いた教師強制手法を提案する。
提案手法は,よく知られたReIDベンチマークデータセットにおいて,既存の手法よりも優れた性能を示すことを示す。
関連論文リスト
- Divide and Fuse: Body Part Mesh Recovery from Partially Visible Human Images [57.479339658504685]
ディバイドとフューズ」戦略は、人体部分を融合する前に独立して再構築する。
Human Part Parametric Models (HPPM) は、いくつかの形状とグローバルな位置パラメータからメッシュを独立に再構築する。
特別に設計された融合モジュールは、一部しか見えない場合でも、再建された部品をシームレスに統合する。
論文 参考訳(メタデータ) (2024-07-12T21:29:11Z) - BoPR: Body-aware Part Regressor for Human Shape and Pose Estimation [16.38936587088618]
提案手法であるBoPR(Body-Aware Part Regressor)は,まず注意誘導機構を用いて身体と部分の両方の特徴を抽出する。
次に、これらの機能を使用して、部分単位のレグレッションに余分な部分ボディ依存性をエンコードします。
論文 参考訳(メタデータ) (2023-03-21T08:36:59Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - PARE: Part Attention Regressor for 3D Human Body Estimation [80.20146689494992]
Part Attention Regressorはボディパートガイドによる注意マスクの予測を学ぶ。
コードはhttps://pare.is.tue.mpg.de/で研究目的に利用できる。
論文 参考訳(メタデータ) (2021-04-17T12:42:56Z) - AAformer: Auto-Aligned Transformer for Person Re-Identification [82.45385078624301]
トランスアーキテクチャにおけるアライメント方式を初めて導入する。
本研究では,人体と非人体の両方をパッチレベルで自動的に検出する自動整列トランス (AAformer) を提案する。
AAformerは、部分アライメントを自己アテンションに統合し、出力[PART]を直接検索する機能として使用することができる。
論文 参考訳(メタデータ) (2021-04-02T08:00:25Z) - Interpretable and Accurate Fine-grained Recognition via Region Grouping [14.28113520947247]
微粒な視覚認識のための解釈可能な深層モデルを提案する。
私たちの手法の中核は、ディープニューラルネットワーク内での領域ベースの部分発見と帰属の統合です。
本研究は,分類タスクの最先端手法と比較した。
論文 参考訳(メタデータ) (2020-05-21T01:18:26Z) - Pose-guided Visible Part Matching for Occluded Person ReID [80.81748252960843]
本稿では、ポーズ誘導による特徴の識別を共同で学習し、その部分の可視性を自己判断する Pose-Guided Visible Part Matching (PVPM) 法を提案する。
実験結果から,提案手法は最先端手法と競合する性能を示した。
論文 参考訳(メタデータ) (2020-04-01T04:36:51Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。