論文の概要: Deep Template Matching for Pedestrian Attribute Recognition with the
Auxiliary Supervision of Attribute-wise Keypoints
- arxiv url: http://arxiv.org/abs/2011.06798v1
- Date: Fri, 13 Nov 2020 07:52:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 23:17:48.881762
- Title: Deep Template Matching for Pedestrian Attribute Recognition with the
Auxiliary Supervision of Attribute-wise Keypoints
- Title(参考訳): Auxiliary Supervision of Attribute-wise Keypoint を用いた歩行者属性認識のためのDeep Template Matching
- Authors: Jiajun Zhang, Pengyuan Ren and Jianmin Li
- Abstract要約: Pedestrian Attribute Recognition (PAR)は、ビデオ監視のシナリオにおいて重要な役割を担っているため、広く注目を集めている。
最近の研究は、属性に対応する領域をローカライズするための、注意機構やボディ部分の提案など、複雑なモジュールを設計している。
これらの研究は属性特定領域のローカライゼーションがパフォーマンス向上に役立つことを証明している。
しかし、これらの部分情報に基づく手法は、モデル複雑さの増加とともに正確ではない。
- 参考スコア(独自算出の注目度): 33.35677385823819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pedestrian Attribute Recognition (PAR) has aroused extensive attention due to
its important role in video surveillance scenarios. In most cases, the
existence of a particular attribute is strongly related to a partial region.
Recent works design complicated modules, e.g., attention mechanism and proposal
of body parts to localize the attribute corresponding region. These works
further prove that localization of attribute specific regions precisely will
help in improving performance. However, these part-information-based methods
are still not accurate as well as increasing model complexity which makes it
hard to deploy on realistic applications. In this paper, we propose a Deep
Template Matching based method to capture body parts features with less
computation. Further, we also proposed an auxiliary supervision method that use
human pose keypoints to guide the learning toward discriminative local cues.
Extensive experiments show that the proposed method outperforms and has lower
computational complexity, compared with the state-of-the-art approaches on
large-scale pedestrian attribute datasets, including PETA, PA-100K, RAP, and
RAPv2 zs.
- Abstract(参考訳): 歩行者属性認識(par)は,映像監視において重要な役割を担っている。
ほとんどの場合、特定の属性の存在は部分的な領域と強く関連している。
最近の研究は、属性に対応する領域をローカライズするための注意機構やボディ部分の提案など、複雑なモジュールを設計している。
これらの研究は、属性特定領域のローカライゼーションがパフォーマンス向上に役立つことを証明している。
しかし、これらの部分情報に基づく手法はまだ正確ではなく、モデルの複雑さも増すため、現実的なアプリケーションへのデプロイが難しい。
本稿では,より少ない計算量で体部特徴をキャプチャする深層テンプレートマッチングに基づく手法を提案する。
さらに,人間のポーズキーポイントを用いて識別的局所的手がかりへの学習を指導する補助監督手法を提案する。
提案手法はPETA, PA-100K, RAP, RAPv2 zsを含む大規模歩行者属性データセットに対する最先端の手法と比較して, 性能が優れ, 計算複雑性が低いことを示す。
関連論文リスト
- SSPNet: Scale and Spatial Priors Guided Generalizable and Interpretable
Pedestrian Attribute Recognition [23.55622798950833]
Pedestrian Attribute Recognition(PAR)モデルに対して,SSPNet(Scale and Spatial Priors Guided Network)を提案する。
SSPNetは、異なる属性グループに対して適切なスケールの事前情報を提供することを学び、モデルが異なるレベルの機能マップに集中できるようにする。
Weakly-supervised Pedestrian Attribute Localization (WPAL) に対して, 属性応答マスクのGrad-CAMの改良に基づく新しいIoU属性ローカライゼーション指標を提案する。
論文 参考訳(メタデータ) (2023-12-11T00:41:40Z) - DETR Doesn't Need Multi-Scale or Locality Design [69.56292005230185]
本稿では,"プレーン"特性を維持できる改良型DETR検出器を提案する。
特定の局所性制約を伴わずに、単一スケールの機能マップとグローバルなクロスアテンション計算を使用する。
マルチスケールな特徴マップと局所性制約の欠如を補うために,2つの単純な技術が平易な設計において驚くほど効果的であることを示す。
論文 参考訳(メタデータ) (2023-08-03T17:59:04Z) - A Solution to Co-occurrence Bias: Attributes Disentanglement via Mutual
Information Minimization for Pedestrian Attribute Recognition [10.821982414387525]
そこで本研究では,現在の手法が,データセット分布のシーンやアイデンティティに適合する属性の相互依存性の一般化に実際に苦慮していることを示す。
現実的な場面で頑健なモデルをレンダリングするために,属性不整形特徴学習を提案し,属性の認識が他者の存在に依存しないことを保証する。
論文 参考訳(メタデータ) (2023-07-28T01:34:55Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - UPAR: Unified Pedestrian Attribute Recognition and Person Retrieval [4.6193503399184275]
UPAR, Unified Person Attribute Recognition データセットについて述べる。
PA100k、PETA、RAPv2、Market1501の4つの有名な人物属性認識データセットに基づいている。
私たちは、12の属性カテゴリに対して、40の重要なバイナリ属性を調和させるために、3,3Mの追加アノテーションを提供することで、これらのデータセットを統一します。
論文 参考訳(メタデータ) (2022-09-06T14:20:56Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Pedestrian Attribute Recognition in Video Surveillance Scenarios Based
on View-attribute Attention Localization [8.807717261983539]
注目度(VALA)に基づく新しいビュー属性ローカライズ手法を提案する。
特定のビュー属性は、抽出された属性特徴と、異なるビューからの属性に対する信頼度としてビュー予測器によって予測される4つのビュースコアによって構成される。
3つのワイドデータセット(RAP, RAPv2, PETA, PA-100K)による実験により, 最先端手法と比較して, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2021-06-11T16:09:31Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - Simple and effective localized attribute representations for zero-shot
learning [48.053204004771665]
Zero-shot Learning (ZSL) は、目に見えないクラスとイメージを区別することを目的としている。
本稿では,意味/属性空間における局所化表現を提案する。
提案手法は,ゼロショット学習のための新しいベースラインとして利用することができる。
論文 参考訳(メタデータ) (2020-06-10T16:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。