論文の概要: Pedestrian Attribute Recognition in Video Surveillance Scenarios Based
on View-attribute Attention Localization
- arxiv url: http://arxiv.org/abs/2106.06485v1
- Date: Fri, 11 Jun 2021 16:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:13:45.427233
- Title: Pedestrian Attribute Recognition in Video Surveillance Scenarios Based
on View-attribute Attention Localization
- Title(参考訳): View-Atribute Attention Localizationに基づく映像監視シナリオにおける歩行者属性認識
- Authors: Weichen Chen (1) Xinyi Yu (1) Linlin Ou (1) ((1) Collage of
Information Engineering, Zhejiang University of Technology, Hangzhou, China)
- Abstract要約: 注目度(VALA)に基づく新しいビュー属性ローカライズ手法を提案する。
特定のビュー属性は、抽出された属性特徴と、異なるビューからの属性に対する信頼度としてビュー予測器によって予測される4つのビュースコアによって構成される。
3つのワイドデータセット(RAP, RAPv2, PETA, PA-100K)による実験により, 最先端手法と比較して, 提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 8.807717261983539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pedestrian attribute recognition in surveillance scenarios is still a
challenging task due to inaccurate localization of specific attributes. In this
paper, we propose a novel view-attribute localization method based on attention
(VALA), which relies on the strong relevance between attributes and views to
capture specific view-attributes and to localize attribute-corresponding areas
by attention mechanism. A specific view-attribute is composed by the extracted
attribute feature and four view scores which are predicted by view predictor as
the confidences for attribute from different views. View-attribute is then
delivered back to shallow network layers for supervising deep feature
extraction. To explore the location of a view-attribute, regional attention is
introduced to aggregate spatial information of the input attribute feature in
height and width direction for constraining the image into a narrow range.
Moreover, the inter-channel dependency of view-feature is embedded in the above
two spatial directions. An attention attribute-specific region is gained after
fining the narrow range by balancing the ratio of channel dependencies between
height and width branches. The final view-attribute recognition outcome is
obtained by combining the output of regional attention with the view scores
from view predictor. Experiments on three wide datasets (RAP, RAPv2, PETA, and
PA-100K) demonstrate the effectiveness of our approach compared with
state-of-the-art methods.
- Abstract(参考訳): 監視シナリオにおける歩行者属性の認識は、特定の属性が不正確な位置にあるため、依然として困難な課題である。
本稿では,属性とビューの強い関連性に基づき,特定のビュー属性をキャプチャし,アテンション機構により属性対応領域を局所化する,アテンションに基づく新しいビュー属性ローカライズ手法を提案する。
特定のビュー属性は、抽出された属性特徴と、異なるビューからの属性に対する信頼度としてビュー予測器によって予測される4つのビュースコアによって構成される。
ビュー属性は、深い特徴抽出を監督するために浅いネットワーク層に返される。
ビュー属性の位置を探索するために、画像が狭い範囲に制約される高さ及び幅方向の入力属性特徴の空間情報を集約するために、地域的注意を導入する。
さらに、上記2つの空間方向にビューフィーチャーのチャネル間依存性を埋め込む。
高さと幅の分岐のチャネル依存性の比をバランスさせて狭い範囲を絞り込み、注目属性特化領域を得る。
最終ビュー属性認識結果は、地域注意の出力とビュー予測器からのビュースコアを組み合わせることで得られる。
3つのワイドデータセット(RAP, RAPv2, PETA, PA-100K)の実験により, 最先端手法と比較して, 提案手法の有効性が示された。
関連論文リスト
- Dual Relation Mining Network for Zero-Shot Learning [48.89161627050706]
本稿では,効果的な視覚・意味的相互作用を実現し,知識伝達のための属性間の意味的関係を学習するためのDual Relation Mining Network(DRMN)を提案する。
具体的には,多層的特徴融合により視覚情報を強化する視覚・意味的関係マイニングのためのデュアルアテンションブロック(DAB)を提案する。
セマンティック・インタラクション・トランスフォーマ(SIT)を用いて画像間の属性表現の一般化を促進する。
論文 参考訳(メタデータ) (2024-05-06T16:31:19Z) - High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Dual Feature Augmentation Network for Generalized Zero-shot Learning [14.410978100610489]
ゼロショット学習 (ZSL) は,見知らぬクラスから知識を伝達することによって,サンプルを訓練せずに新しいクラスを推論することを目的としている。
ZSLの既存の埋め込みベースのアプローチは、画像上の属性を見つけるために注意機構を用いるのが一般的である。
本稿では,2つの機能拡張モジュールからなる新しいDual Feature Augmentation Network (DFAN)を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:37:52Z) - A Solution to Co-occurrence Bias: Attributes Disentanglement via Mutual
Information Minimization for Pedestrian Attribute Recognition [10.821982414387525]
そこで本研究では,現在の手法が,データセット分布のシーンやアイデンティティに適合する属性の相互依存性の一般化に実際に苦慮していることを示す。
現実的な場面で頑健なモデルをレンダリングするために,属性不整形特徴学習を提案し,属性の認識が他者の存在に依存しないことを保証する。
論文 参考訳(メタデータ) (2023-07-28T01:34:55Z) - UPAR: Unified Pedestrian Attribute Recognition and Person Retrieval [4.6193503399184275]
UPAR, Unified Person Attribute Recognition データセットについて述べる。
PA100k、PETA、RAPv2、Market1501の4つの有名な人物属性認識データセットに基づいている。
私たちは、12の属性カテゴリに対して、40の重要なバイナリ属性を調和させるために、3,3Mの追加アノテーションを提供することで、これらのデータセットを統一します。
論文 参考訳(メタデータ) (2022-09-06T14:20:56Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Improving Object Detection and Attribute Recognition by Feature
Entanglement Reduction [26.20319853343761]
オブジェクト検出は属性非依存であるべきであり、属性は主にオブジェクト非依存であることを示す。
我々は、カテゴリと属性の特徴を独立に計算する2ストリームモデルを用いて、それらを分離するが、分類ヘッドは興味の領域(RoIs)を共有する。
従来のシングルストリームモデルと比較すると,Visual GenomeのサブセットであるVG-20よりも,教師付きタスクと属性転送タスクにおいて大幅な改善が見られた。
論文 参考訳(メタデータ) (2021-08-25T22:27:06Z) - Deep Template Matching for Pedestrian Attribute Recognition with the
Auxiliary Supervision of Attribute-wise Keypoints [33.35677385823819]
Pedestrian Attribute Recognition (PAR)は、ビデオ監視のシナリオにおいて重要な役割を担っているため、広く注目を集めている。
最近の研究は、属性に対応する領域をローカライズするための、注意機構やボディ部分の提案など、複雑なモジュールを設計している。
これらの研究は属性特定領域のローカライゼーションがパフォーマンス向上に役立つことを証明している。
しかし、これらの部分情報に基づく手法は、モデル複雑さの増加とともに正確ではない。
論文 参考訳(メタデータ) (2020-11-13T07:52:26Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。