論文の概要: Dual-Attention GAN for Large-Pose Face Frontalization
- arxiv url: http://arxiv.org/abs/2002.07227v1
- Date: Mon, 17 Feb 2020 20:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 12:52:20.836368
- Title: Dual-Attention GAN for Large-Pose Face Frontalization
- Title(参考訳): 大孔面前面用デュアルアテンションgan
- Authors: Yu Yin and Songyao Jiang and Joseph P. Robinson and Yun Fu
- Abstract要約: 本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
- 参考スコア(独自算出の注目度): 59.689836951934694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face frontalization provides an effective and efficient way for face data
augmentation and further improves the face recognition performance in extreme
pose scenario. Despite recent advances in deep learning-based face synthesis
approaches, this problem is still challenging due to significant pose and
illumination discrepancy. In this paper, we present a novel Dual-Attention
Generative Adversarial Network (DA-GAN) for photo-realistic face frontalization
by capturing both contextual dependencies and local consistency during GAN
training. Specifically, a self-attention-based generator is introduced to
integrate local features with their long-range dependencies yielding better
feature representations, and hence generate faces that preserve identities
better, especially for larger pose angles. Moreover, a novel
face-attention-based discriminator is applied to emphasize local features of
face regions, and hence reinforce the realism of synthetic frontal faces.
Guided by semantic segmentation, four independent discriminators are used to
distinguish between different aspects of a face (\ie skin, keypoints, hairline,
and frontalized face). By introducing these two complementary attention
mechanisms in generator and discriminator separately, we can learn a richer
feature representation and generate identity preserving inference of frontal
views with much finer details (i.e., more accurate facial appearance and
textures) comparing to the state-of-the-art. Quantitative and qualitative
experimental results demonstrate the effectiveness and efficiency of our DA-GAN
approach.
- Abstract(参考訳): face frontalizationは、顔データ拡張の効果的かつ効率的な方法を提供し、極端なポーズシナリオにおける顔認識性能をさらに向上させる。
近年の深層学習に基づく顔合成手法の進歩にもかかわらず、重要なポーズと照明の相違により、この問題はいまだに困難である。
本稿では,gan学習中に文脈依存と局所的一貫性の両方を捉えることにより,フォトリアリスティックな顔のフロントアライズを行うための,dual-attention generative adversarial network(da-gan)を提案する。
具体的には、自己注意に基づくジェネレータを導入し、局所的な特徴と長距離の依存関係を統合することにより、より優れた特徴表現が得られる。
さらに, 顔領域の局所的特徴を強調するために, 新規な顔認識に基づく識別器を適用し, 合成正面面のリアリズムを強化する。
セマンティックセグメンテーションによって導かれる4つの独立した判別器は、顔の異なる側面(皮膚、キーポイント、ヘアライン、前面顔)を区別するために使用される。
これら2つの相補的注意機構をジェネレータと識別器に別々に導入することにより、よりリッチな特徴表現を学習し、より細部(すなわち、より正確な顔の外観とテクスチャ)で前景のアイデンティティを保存することができる。
DA-GAN法の有効性と有効性を示す定量的,定性的な実験結果を得た。
関連論文リスト
- LAFS: Landmark-based Facial Self-supervised Learning for Face
Recognition [37.4550614524874]
我々は、効果的な顔認識モデルの訓練に適応できる顔表現の学習に焦点をあてる。
本研究では,自己教師付き事前学習による未ラベル顔画像の学習戦略について検討する。
提案手法は,複数の顔認識ベンチマークにおける最先端技術よりも大幅に向上する。
論文 参考訳(メタデータ) (2024-03-13T01:07:55Z) - Kinship Representation Learning with Face Componential Relation [19.175823975322356]
Kinship Recognitionは、2つの顔画像の被験者が近親者か非近親者かを判定することを目的としている。
従来手法では,顔画像間の空間的相関を考慮せずに設計に重点を置いていた。
本稿では,画像間の顔成分間の関係を相互認識機構を用いて学習する顔成分関係ネットワークを提案する。
提案されたFaCoRNetは、最大の公的な親族認識FIWベンチマークにおいて、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-04-10T12:37:26Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Heterogeneous Face Frontalization via Domain Agnostic Learning [74.86585699909459]
本研究では, 視覚領域における正面視を, ポーズのバリエーションで合成できるドメイン非依存学習型生成逆数ネットワーク(DAL-GAN)を提案する。
DAL-GANは、補助分類器を備えたジェネレータと、より優れた合成のために局所的およびグローバルなテクスチャ識別をキャプチャする2つの識別器から構成される。
論文 参考訳(メタデータ) (2021-07-17T20:41:41Z) - Learning Oracle Attention for High-fidelity Face Completion [121.72704525675047]
U-Net構造に基づく顔補完のための包括的フレームワークを設計する。
複数のスケールで顔のテクスチャ間の相関関係を効率よく学習する双対空間アテンションモジュールを提案する。
顔成分の位置を事前の知識として捉え,これらの領域に複数識別器を課す。
論文 参考訳(メタデータ) (2020-03-31T01:37:10Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Domain Embedded Multi-model Generative Adversarial Networks for
Image-based Face Inpainting [44.598234654270584]
そこで本研究では,大規模刈り取り領域で顔画像の塗布を行うためのドメイン組込み多モデル生成逆数モデルを提案する。
CelebAとCelebA-HQの両方の顔データセットに対する実験により、提案手法が最先端の性能を達成したことを示す。
論文 参考訳(メタデータ) (2020-02-05T17:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。