論文の概要: ASD: Towards Attribute Spatial Decomposition for Prior-Free Facial
Attribute Recognition
- arxiv url: http://arxiv.org/abs/2210.13716v1
- Date: Tue, 25 Oct 2022 02:25:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:56:39.554226
- Title: ASD: Towards Attribute Spatial Decomposition for Prior-Free Facial
Attribute Recognition
- Title(参考訳): asd:事前自由顔属性認識のための属性空間分解に向けて
- Authors: Chuanfei Hu, Hang Shao, Bo Dong, Zhe Wang and Yongxiong Wang
- Abstract要約: 顔属性の空間特性の表現は、顔属性認識(FAR)にとって重要な課題である
近年のFARの性能向上は,余分な事前情報による空間特性記述の恩恵を受け,信頼性の高い性能を実現している。
本研究では,属性の空間的曖昧さを余分な事前情報なしで軽減する属性空間分解法(ASD)を提案する。
- 参考スコア(独自算出の注目度): 11.757112726108822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representing the spatial properties of facial attributes is a vital challenge
for facial attribute recognition (FAR). Recent advances have achieved the
reliable performances for FAR, benefiting from the description of spatial
properties via extra prior information. However, the extra prior information
might not be always available, resulting in the restricted application scenario
of the prior-based methods. Meanwhile, the spatial ambiguity of facial
attributes caused by inherent spatial diversities of facial parts is ignored.
To address these issues, we propose a prior-free method for attribute spatial
decomposition (ASD), mitigating the spatial ambiguity of facial attributes
without any extra prior information. Specifically, assignment-embedding module
(AEM) is proposed to enable the procedure of ASD, which consists of two
operations: attribute-to-location assignment and location-to-attribute
embedding. The attribute-to-location assignment first decomposes the feature
map based on latent factors, assigning the magnitude of attribute components on
each spatial location. Then, the assigned attribute components from all
locations to represent the global-level attribute embeddings. Furthermore,
correlation matrix minimization (CMM) is introduced to enlarge the
discriminability of attribute embeddings. Experimental results demonstrate the
superiority of ASD compared with state-of-the-art prior-based methods, while
the reliable performance of ASD for the case of limited training data is
further validated.
- Abstract(参考訳): 顔属性の空間特性を表現することは、顔属性認識(FAR)にとって重要な課題である。
近年のFARの信頼性向上は,付加的な事前情報による空間特性記述の恩恵を受けている。
しかし、余分な事前情報は必ずしも利用可能ではない可能性があり、その結果、プリエントベースのメソッドのアプリケーションシナリオが制限される。
一方,顔部位の空間的多様性に起因する顔面特性の空間的あいまいさは無視される。
これらの課題に対処するために,属性空間分解(ASD)の事前情報のない顔属性の空間的あいまいさを緩和する手法を提案する。
具体的には、属性から位置への割り当てと位置から属性への埋め込みの2つの操作からなるasdの手順を可能にするために、代入埋め込みモジュール(aem)が提案されている。
attribute-to-locationの割り当ては、まず潜在要因に基づいて特徴マップを分解し、各空間の属性要素の大きさを割り当てる。
そして、グローバルレベルの属性埋め込みを表すために、すべての場所から割り当てられた属性コンポーネント。
さらに,属性埋め込みの識別可能性を高めるために相関行列最小化(CMM)を導入する。
実験により,最先端の先行手法と比較してASDの優位性を示すとともに,限られたトレーニングデータに対するASDの信頼性性能をさらに検証した。
関連論文リスト
- DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - SSPNet: Scale and Spatial Priors Guided Generalizable and Interpretable
Pedestrian Attribute Recognition [23.55622798950833]
Pedestrian Attribute Recognition(PAR)モデルに対して,SSPNet(Scale and Spatial Priors Guided Network)を提案する。
SSPNetは、異なる属性グループに対して適切なスケールの事前情報を提供することを学び、モデルが異なるレベルの機能マップに集中できるようにする。
Weakly-supervised Pedestrian Attribute Localization (WPAL) に対して, 属性応答マスクのGrad-CAMの改良に基づく新しいIoU属性ローカライゼーション指標を提案する。
論文 参考訳(メタデータ) (2023-12-11T00:41:40Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - A Solution to Co-occurrence Bias: Attributes Disentanglement via Mutual
Information Minimization for Pedestrian Attribute Recognition [10.821982414387525]
そこで本研究では,現在の手法が,データセット分布のシーンやアイデンティティに適合する属性の相互依存性の一般化に実際に苦慮していることを示す。
現実的な場面で頑健なモデルをレンダリングするために,属性不整形特徴学習を提案し,属性の認識が他者の存在に依存しないことを保証する。
論文 参考訳(メタデータ) (2023-07-28T01:34:55Z) - Multi-Stage Spatio-Temporal Aggregation Transformer for Video Person
Re-identification [78.08536797239893]
本稿では,2つの新しいプロキシ埋め込みモジュールを設計したMSTAT(Multi-Stage Space-Temporal Aggregation Transformer)を提案する。
MSTATは、属性関連、アイデンティティ関連、および属性関連情報をビデオクリップからエンコードする3つのステージから構成される。
MSTATは様々な標準ベンチマークで最先端の精度を達成できることを示す。
論文 参考訳(メタデータ) (2023-01-02T05:17:31Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - Calibrated Feature Decomposition for Generalizable Person
Re-Identification [82.64133819313186]
Calibrated Feature Decomposition (CFD)モジュールは、人物の再識別の一般化能力の向上に焦点を当てている。
キャリブレーション・アンド・スタンダード化されたバッチ正規化(CSBN)は、キャリブレーションされた人物表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-11-27T17:12:43Z) - Spatial and Semantic Consistency Regularizations for Pedestrian
Attribute Recognition [50.932864767867365]
本稿では,各属性に対する空間的および意味的一貫性を実現するために,2つの相補的正規化からなるフレームワークを提案する。
属性の正確な位置に基づいて,本質的および識別的意味的特徴を抽出する意味的整合性正規化を提案する。
その結果,提案手法はパラメータを増大させることなく,最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2021-09-13T03:36:44Z) - Disentangled Face Attribute Editing via Instance-Aware Latent Space
Search [30.17338705964925]
GAN(Generative Adversarial Networks)の潜在空間には、意味的な方向性の豊富な集合が存在する。
既存のメソッドは属性のばらつきが弱いため、望ましい属性を変更する際には、他の属性が望ましくない変更になる可能性がある。
本稿では,不整合属性編集のセマンティックな方向を求めるために,インスタンス認識遅延空間探索を行う新しいフレームワーク(IALS)を提案する。
論文 参考訳(メタデータ) (2021-05-26T16:19:08Z) - Hierarchical Feature Embedding for Attribute Recognition [26.79901907956084]
本稿では,属性情報とID情報を組み合わせることで,詳細な特徴埋め込みを学習する階層的特徴埋め込みフレームワークを提案する。
提案手法は,2つの歩行者属性データセットと顔属性データセットに対して,最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2020-05-23T17:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。