論文の概要: Attributes Aware Face Generation with Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2012.01782v1
- Date: Thu, 3 Dec 2020 09:25:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:55:47.791477
- Title: Attributes Aware Face Generation with Generative Adversarial Networks
- Title(参考訳): 生成的対立ネットワークによる顔生成の属性
- Authors: Zheng Yuan, Jie Zhang, Shiguang Shan, Xilin Chen
- Abstract要約: AFGANと呼ばれる生成対向ネットワークを用いた新しい属性認識顔画像生成法を提案する。
3つの積み重ねたジェネレータは、それぞれ64ドル640ドル、128ドル128ドル、256ドル256ドルの解像度の顔画像を生成する。
さらに、生成した画像と入力属性の相関性を高めるために、画像-属性マッチング損失を提案する。
- 参考スコア(独自算出の注目度): 133.44359317633686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown remarkable success in face image generations.
However, most of the existing methods only generate face images from random
noise, and cannot generate face images according to the specific attributes. In
this paper, we focus on the problem of face synthesis from attributes, which
aims at generating faces with specific characteristics corresponding to the
given attributes. To this end, we propose a novel attributes aware face image
generator method with generative adversarial networks called AFGAN.
Specifically, we firstly propose a two-path embedding layer and self-attention
mechanism to convert binary attribute vector to rich attribute features. Then
three stacked generators generate $64 \times 64$, $128 \times 128$ and $256
\times 256$ resolution face images respectively by taking the attribute
features as input. In addition, an image-attribute matching loss is proposed to
enhance the correlation between the generated images and input attributes.
Extensive experiments on CelebA demonstrate the superiority of our AFGAN in
terms of both qualitative and quantitative evaluations.
- Abstract(参考訳): 最近の研究では、顔画像の世代で顕著な成功を収めている。
しかし、既存の手法のほとんどはランダムノイズからのみ顔画像を生成し、特定の属性に従って顔画像を生成することはできない。
本稿では,属性に対応する特定の特徴を持つ顔を生成することを目的とした属性からの顔合成の問題に焦点をあてる。
そこで本研究では,AFGANと呼ばれる生成対向ネットワークを用いた新たな属性認識顔画像生成手法を提案する。
具体的には,まず,バイナリ属性ベクトルをリッチ属性に変換する2パス埋め込み層と自己アテンション機構を提案する。
3つのスタックジェネレータは属性機能を入力として、それぞれ64 \times 64$、128 \times 128$と256 \times 256$のフェイスイメージを生成する。
さらに、生成した画像と入力属性の相関性を高めるために、画像-属性マッチング損失を提案する。
CelebAに関する大規模な実験は、定性評価と定量的評価の両方の観点からAFGANの優位性を示している。
関連論文リスト
- PrefGen: Preference Guided Image Generation with Relative Attributes [5.0741409008225755]
深層生成モデルには、人間の顔のようなコンテンツの忠実度の高い画像をレンダリングする能力がある。
我々は、ユーザが生成した画像の相対属性を制御できる$textitPrefGen$システムを開発した。
本稿では,人間の顔編集作業において,StyleGAN2ジェネレータを用いたアプローチの成功例を示す。
論文 参考訳(メタデータ) (2023-04-01T00:41:51Z) - Attribute Controllable Beautiful Caucasian Face Generation by Aesthetics
Driven Reinforcement Learning [21.329906392100884]
我々はEigenGANのジェネレータに強化学習の技法を構築した。
エージェントは、生成した人間の顔のセマンティックな属性を、より好ましいものへ変更する方法を解明しようとする。
近年の強化学習コミュニティに出現する材料を取り入れた新しいバリエーションを提案する。
論文 参考訳(メタデータ) (2022-08-09T03:04:10Z) - Identity and Attribute Preserving Thumbnail Upscaling [93.38607559281601]
我々は、人物の低解像度サムネイル画像を高解像度画像にアップスケールする作業を検討し、その人物のアイデンティティやその他の属性を保存する。
以上の結果から,顔の類似性認識とルックアライズ生成の改善に加えて,入力サムネイルのアイデンティティを保ち,人種や属性を維持できる高解像度画像を生成する能力の向上が示唆された。
論文 参考訳(メタデータ) (2021-05-30T19:32:27Z) - Multimodal Face Synthesis from Visual Attributes [85.87796260802223]
本稿では,マルチモーダル顔画像を保存するIDを同時に合成する新たな生成対向ネットワークを提案する。
実画像と偽画像の区別を行う識別装置にマルチモーダルストレッチインモジュールを導入。
論文 参考訳(メタデータ) (2021-04-09T13:47:23Z) - CAFE-GAN: Arbitrary Face Attribute Editing with Complementary Attention
Feature [31.425326840578098]
本稿では,対象属性に関連する顔の部分のみを編集する新しいGANモデルを提案する。
CAFEは、目的属性と相補属性の両方を考慮し、変換すべき顔領域を特定する。
論文 参考訳(メタデータ) (2020-11-24T05:21:03Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - MagGAN: High-Resolution Face Attribute Editing with Mask-Guided
Generative Adversarial Network [145.4591079418917]
MagGANは、望ましい属性変更に関連する顔の部分のみを編集することを学ぶ。
各属性変更の影響領域をジェネレータに組み込むために、新しいマスク誘導条件付け戦略を導入する。
高解像度(1024×1024$)の顔編集のために,マルチレベルパッチワイド識別器構造を提案する。
論文 参考訳(メタデータ) (2020-10-03T20:56:16Z) - Prominent Attribute Modification using Attribute Dependent Generative
Adversarial Network [4.654937118111992]
提案手法は,2つのジェネレータと2つの識別器を基本とし,2つの属性の実際の表現と2つのバイナリを利用する。
CelebAデータセットを用いた実験により,他の顔の細部を無傷に保存し,複数の属性の編集を効果的に行うことができた。
論文 参考訳(メタデータ) (2020-04-24T13:38:05Z) - Facial Attribute Capsules for Noise Face Super Resolution [86.55076473929965]
既存の顔超解像法(SR)は主に入力画像がノイズフリーであると仮定する。
本稿では,雑音の多い顔画像の高解像度化を実現するために,FACN(Facial Attribute Capsules Network)を提案する。
提案手法は,超低分解能(LR)ノイズフェース画像の超解像において,優れた幻覚効果を達成し,最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-02-16T06:22:28Z) - MulGAN: Facial Attribute Editing by Exemplar [2.272764591035106]
遅延特徴空間の予め定義された領域に画像の属性関連情報をエンコードする手法では、逆の属性を持つ一対の画像を列車モデルへの入力として利用する。
それらには、3つの制限がある:(1)モデルが入力として反対の属性を持つ一対のイメージを使用して訓練されなければならない;(2)複数の属性を例によって編集する能力の弱い;(3)画像生成の質が悪い。
論文 参考訳(メタデータ) (2019-12-28T04:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。