論文の概要: TransFA: Transformer-based Representation for Face Attribute Evaluation
- arxiv url: http://arxiv.org/abs/2207.05456v1
- Date: Tue, 12 Jul 2022 10:58:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 14:34:09.328737
- Title: TransFA: Transformer-based Representation for Face Attribute Evaluation
- Title(参考訳): TransFA: 顔属性評価のためのトランスフォーマーベース表現
- Authors: Decheng Liu, Weijie He, Chunlei Peng, Nannan Wang, Jie Li, Xinbo Gao
- Abstract要約: 我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 87.09529826340304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face attribute evaluation plays an important role in video surveillance and
face analysis. Although methods based on convolution neural networks have made
great progress, they inevitably only deal with one local neighborhood with
convolutions at a time. Besides, existing methods mostly regard face attribute
evaluation as the individual multi-label classification task, ignoring the
inherent relationship between semantic attributes and face identity
information. In this paper, we propose a novel \textbf{trans}former-based
representation for \textbf{f}ace \textbf{a}ttribute evaluation method
(\textbf{TransFA}), which could effectively enhance the attribute
discriminative representation learning in the context of attention mechanism.
The multiple branches transformer is employed to explore the inter-correlation
between different attributes in similar semantic regions for attribute feature
learning. Specially, the hierarchical identity-constraint attribute loss is
designed to train the end-to-end architecture, which could further integrate
face identity discriminative information to boost performance. Experimental
results on multiple face attribute benchmarks demonstrate that the proposed
TransFA achieves superior performances compared with state-of-the-art methods.
- Abstract(参考訳): 顔属性評価は、ビデオ監視と顔分析において重要な役割を果たす。
畳み込みニューラルネットワークに基づく手法は大きな進歩を遂げているが、必然的に一度に畳み込みのあるローカルな近所のみを扱う。
さらに,既存手法では,顔属性評価を個々の多ラベル分類タスクとみなし,意味属性と顔識別情報の固有性を無視している。
本稿では, 注意機構の文脈における属性識別表現学習を効果的に強化できる, 新規な \textbf{trans}former-based representation for \textbf{f}ace \textbf{a}ttribute evaluation method (\textbf{TransFA}) を提案する。
属性特徴学習のための類似意味領域における異なる属性間の相関を探索するために多重分岐トランスフォーマが用いられる。
特に、階層的アイデンティティ制約属性損失はエンドツーエンドアーキテクチャをトレーニングするために設計されており、パフォーマンスを高めるために顔識別情報をさらに統合することができる。
複数の顔属性ベンチマークの実験結果から,提案したTransFAは最先端手法と比較して優れた性能を示した。
関連論文リスト
- Multi-Task Learning Using Uncertainty to Weigh Losses for Heterogeneous
Face Attribute Estimation [9.466352272999698]
本稿では,情報共有に基づく順序属性と名属性を共同で推定する枠組みを提案する。
複数の顔属性を持つベンチマーク実験の結果,提案手法は最先端技術よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-01T14:39:15Z) - A Solution to Co-occurrence Bias: Attributes Disentanglement via Mutual
Information Minimization for Pedestrian Attribute Recognition [10.821982414387525]
そこで本研究では,現在の手法が,データセット分布のシーンやアイデンティティに適合する属性の相互依存性の一般化に実際に苦慮していることを示す。
現実的な場面で頑健なモデルをレンダリングするために,属性不整形特徴学習を提案し,属性の認識が他者の存在に依存しないことを保証する。
論文 参考訳(メタデータ) (2023-07-28T01:34:55Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - AGA-GAN: Attribute Guided Attention Generative Adversarial Network with
U-Net for Face Hallucination [15.010153819096056]
本稿では,属性誘導注意(AGA)モジュールを用いた属性誘導注意生成ネットワークを提案する。
AGA-GANとAGA-GAN+U-Netフレームワークは、他の最先端のハロシン化技術よりも優れている。
論文 参考訳(メタデータ) (2021-11-20T13:43:03Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z) - Disentangled Face Attribute Editing via Instance-Aware Latent Space
Search [30.17338705964925]
GAN(Generative Adversarial Networks)の潜在空間には、意味的な方向性の豊富な集合が存在する。
既存のメソッドは属性のばらつきが弱いため、望ましい属性を変更する際には、他の属性が望ましくない変更になる可能性がある。
本稿では,不整合属性編集のセマンティックな方向を求めるために,インスタンス認識遅延空間探索を行う新しいフレームワーク(IALS)を提案する。
論文 参考訳(メタデータ) (2021-05-26T16:19:08Z) - Deep Multi-task Multi-label CNN for Effective Facial Attribute
Classification [53.58763562421771]
DMM-CNN(ディープ・マルチタスク・マルチラベル・CNN)による効果的な顔属性分類(FAC)を提案する。
具体的には、DMM-CNNは、2つの密接に関連するタスク(顔のランドマーク検出とFAC)を共同で最適化し、マルチタスク学習を活用することにより、FACの性能を向上させる。
2つの異なるネットワークアーキテクチャは2つの属性のグループの特徴を抽出するために設計され、トレーニング中に各顔属性に損失重みを自動的に割り当てる新しい動的重み付け方式が提案されている。
論文 参考訳(メタデータ) (2020-02-10T12:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。