論文の概要: AGA-GAN: Attribute Guided Attention Generative Adversarial Network with
U-Net for Face Hallucination
- arxiv url: http://arxiv.org/abs/2111.10591v1
- Date: Sat, 20 Nov 2021 13:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 14:06:38.897788
- Title: AGA-GAN: Attribute Guided Attention Generative Adversarial Network with
U-Net for Face Hallucination
- Title(参考訳): AGA-GAN: 顔の幻覚のためのU-Netによる注意誘導型生成対向ネットワーク
- Authors: Abhishek Srivastava, Sukalpa Chanda, Umapada Pal
- Abstract要約: 本稿では,属性誘導注意(AGA)モジュールを用いた属性誘導注意生成ネットワークを提案する。
AGA-GANとAGA-GAN+U-Netフレームワークは、他の最先端のハロシン化技術よりも優れている。
- 参考スコア(独自算出の注目度): 15.010153819096056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of facial super-resolution methods relies on their ability to
recover facial structures and salient features effectively. Even though the
convolutional neural network and generative adversarial network-based methods
deliver impressive performances on face hallucination tasks, the ability to use
attributes associated with the low-resolution images to improve performance is
unsatisfactory. In this paper, we propose an Attribute Guided Attention
Generative Adversarial Network which employs novel attribute guided attention
(AGA) modules to identify and focus the generation process on various facial
features in the image. Stacking multiple AGA modules enables the recovery of
both high and low-level facial structures. We design the discriminator to learn
discriminative features exploiting the relationship between the high-resolution
image and their corresponding facial attribute annotations. We then explore the
use of U-Net based architecture to refine existing predictions and synthesize
further facial details. Extensive experiments across several metrics show that
our AGA-GAN and AGA-GAN+U-Net framework outperforms several other cutting-edge
face hallucination state-of-the-art methods. We also demonstrate the viability
of our method when every attribute descriptor is not known and thus,
establishing its application in real-world scenarios.
- Abstract(参考訳): 顔の超解像法の性能は、顔の構造と正常な特徴を効果的に回復する能力に依存している。
畳み込みニューラルネットワークと生成的敵ネットワークベースの手法は、顔の幻覚タスクにおいて印象的なパフォーマンスを提供するが、低解像度画像に関連する属性を使用してパフォーマンスを改善する能力は不十分である。
本稿では,新しい属性誘導型注意(aga)モジュールを用いて,画像中の様々な顔特徴に対して生成過程を識別し,焦点を合わせる属性誘導型注意生成支援ネットワークを提案する。
複数のAGAモジュールを積み重ねることで、ハイレベルとローレベルの両方の顔構造の回復が可能になる。
我々は,高解像度画像とそれに対応する顔属性アノテーションの関係を利用した識別特徴を学習するための識別器を設計する。
次に、既存の予測を洗練し、さらに顔の詳細を合成するためのU-Netアーキテクチャの利用について検討する。
AGA-GANとAGA-GAN+U-Netフレームワークは、いくつかの最先端の顔幻覚の最先端の手法よりも優れていることを示す。
また,すべての属性記述子が不明な場合,実際のシナリオでアプリケーションを確立することで,その実現可能性を示す。
関連論文リスト
- W-Net: A Facial Feature-Guided Face Super-Resolution Network [8.037821981254389]
Face Super-Resolutionは、高解像度 (HR) の顔画像を低解像度 (LR) の顔画像から復元することを目的としている。
既存手法は, 再建効率が低く, 事前情報の利用が不十分であるため, 理想的ではない。
本稿では,この課題に対処するため,W-Netと呼ばれる新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-02T09:05:40Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - MGRR-Net: Multi-level Graph Relational Reasoning Network for Facial Action Units Detection [16.261362598190807]
FACS(Facial Action Coding System)は、顔画像中のアクションユニット(AU)を符号化する。
我々は、AU特徴の符号化は、地域的特徴とグローバルな特徴の間のリッチな文脈情報を捉えないかもしれないと論じる。
顔AU検出のためのマルチレベルグラフ推論ネットワーク(MGRR-Net)を提案する。
論文 参考訳(メタデータ) (2022-04-04T09:47:22Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z) - Network Architecture Search for Face Enhancement [82.25775020564654]
我々は、NASFE(Network Architecture Search for Face Enhancement)と呼ばれるマルチタスクの顔復元ネットワークを提案する。
NASFEは、単一の劣化(すなわち)を含む低品質の顔画像を高めることができる。
ノイズまたはぼやけ)または複数の劣化(ノイズ+ブラル+ローライト)
論文 参考訳(メタデータ) (2021-05-13T19:46:05Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。