論文の概要: TransFA: Transformer-based Representation for Face Attribute Evaluation
- arxiv url: http://arxiv.org/abs/2207.05456v1
- Date: Tue, 12 Jul 2022 10:58:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 14:34:09.328737
- Title: TransFA: Transformer-based Representation for Face Attribute Evaluation
- Title(参考訳): TransFA: 顔属性評価のためのトランスフォーマーベース表現
- Authors: Decheng Liu, Weijie He, Chunlei Peng, Nannan Wang, Jie Li, Xinbo Gao
- Abstract要約: 我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 87.09529826340304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face attribute evaluation plays an important role in video surveillance and
face analysis. Although methods based on convolution neural networks have made
great progress, they inevitably only deal with one local neighborhood with
convolutions at a time. Besides, existing methods mostly regard face attribute
evaluation as the individual multi-label classification task, ignoring the
inherent relationship between semantic attributes and face identity
information. In this paper, we propose a novel \textbf{trans}former-based
representation for \textbf{f}ace \textbf{a}ttribute evaluation method
(\textbf{TransFA}), which could effectively enhance the attribute
discriminative representation learning in the context of attention mechanism.
The multiple branches transformer is employed to explore the inter-correlation
between different attributes in similar semantic regions for attribute feature
learning. Specially, the hierarchical identity-constraint attribute loss is
designed to train the end-to-end architecture, which could further integrate
face identity discriminative information to boost performance. Experimental
results on multiple face attribute benchmarks demonstrate that the proposed
TransFA achieves superior performances compared with state-of-the-art methods.
- Abstract(参考訳): 顔属性評価は、ビデオ監視と顔分析において重要な役割を果たす。
畳み込みニューラルネットワークに基づく手法は大きな進歩を遂げているが、必然的に一度に畳み込みのあるローカルな近所のみを扱う。
さらに,既存手法では,顔属性評価を個々の多ラベル分類タスクとみなし,意味属性と顔識別情報の固有性を無視している。
本稿では, 注意機構の文脈における属性識別表現学習を効果的に強化できる, 新規な \textbf{trans}former-based representation for \textbf{f}ace \textbf{a}ttribute evaluation method (\textbf{TransFA}) を提案する。
属性特徴学習のための類似意味領域における異なる属性間の相関を探索するために多重分岐トランスフォーマが用いられる。
特に、階層的アイデンティティ制約属性損失はエンドツーエンドアーキテクチャをトレーニングするために設計されており、パフォーマンスを高めるために顔識別情報をさらに統合することができる。
複数の顔属性ベンチマークの実験結果から,提案したTransFAは最先端手法と比較して優れた性能を示した。
関連論文リスト
- Dual Relation Mining Network for Zero-Shot Learning [48.89161627050706]
本稿では,効果的な視覚・意味的相互作用を実現し,知識伝達のための属性間の意味的関係を学習するためのDual Relation Mining Network(DRMN)を提案する。
具体的には,多層的特徴融合により視覚情報を強化する視覚・意味的関係マイニングのためのデュアルアテンションブロック(DAB)を提案する。
セマンティック・インタラクション・トランスフォーマ(SIT)を用いて画像間の属性表現の一般化を促進する。
論文 参考訳(メタデータ) (2024-05-06T16:31:19Z) - High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Selective Domain-Invariant Feature for Generalizable Deepfake Detection [21.671221284842847]
本稿では,コンテンツの特徴やスタイルを融合させることにより,顔の偽造に対する感受性を低下させる新しいフレームワークを提案する。
既存のベンチマークと提案における質的および定量的な結果の両方が、我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2024-03-19T13:09:19Z) - A Solution to Co-occurrence Bias: Attributes Disentanglement via Mutual
Information Minimization for Pedestrian Attribute Recognition [10.821982414387525]
そこで本研究では,現在の手法が,データセット分布のシーンやアイデンティティに適合する属性の相互依存性の一般化に実際に苦慮していることを示す。
現実的な場面で頑健なモデルをレンダリングするために,属性不整形特徴学習を提案し,属性の認識が他者の存在に依存しないことを保証する。
論文 参考訳(メタデータ) (2023-07-28T01:34:55Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - AGA-GAN: Attribute Guided Attention Generative Adversarial Network with
U-Net for Face Hallucination [15.010153819096056]
本稿では,属性誘導注意(AGA)モジュールを用いた属性誘導注意生成ネットワークを提案する。
AGA-GANとAGA-GAN+U-Netフレームワークは、他の最先端のハロシン化技術よりも優れている。
論文 参考訳(メタデータ) (2021-11-20T13:43:03Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z) - Disentangled Face Attribute Editing via Instance-Aware Latent Space
Search [30.17338705964925]
GAN(Generative Adversarial Networks)の潜在空間には、意味的な方向性の豊富な集合が存在する。
既存のメソッドは属性のばらつきが弱いため、望ましい属性を変更する際には、他の属性が望ましくない変更になる可能性がある。
本稿では,不整合属性編集のセマンティックな方向を求めるために,インスタンス認識遅延空間探索を行う新しいフレームワーク(IALS)を提案する。
論文 参考訳(メタデータ) (2021-05-26T16:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。