論文の概要: FA-GANs: Facial Attractiveness Enhancement with Generative Adversarial
Networks on Frontal Faces
- arxiv url: http://arxiv.org/abs/2005.08168v2
- Date: Sat, 6 Jun 2020 00:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:33:37.496994
- Title: FA-GANs: Facial Attractiveness Enhancement with Generative Adversarial
Networks on Frontal Faces
- Title(参考訳): FA-GAN:前頭部の対向ネットワークによる顔の魅力向上
- Authors: Jingwu He, Chuan Wang, Yang Zhang, Jie Guo, and Yanwen Guo
- Abstract要約: 本稿では,幾何学的側面と外見的側面の両方において,顔の魅力を高めるためのGAN(Generative Adversarial Networks)を提案する。
FA-GANは2つの枝を含み、顔の幾何学と顔の外観という2つの視点で顔の魅力を高める。
その結果,我々のFA-GANは幾何学的構造と顔の外観の両方において説得力のある知覚結果が得られることが示唆された。
- 参考スコア(独自算出の注目度): 23.371653986614792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial attractiveness enhancement has been an interesting application in
Computer Vision and Graphics over these years. It aims to generate a more
attractive face via manipulations on image and geometry structure while
preserving face identity. In this paper, we propose the first Generative
Adversarial Networks (GANs) for enhancing facial attractiveness in both
geometry and appearance aspects, which we call "FA-GANs". FA-GANs contain two
branches and enhance facial attractiveness in two perspectives: facial geometry
and facial appearance. Each branch consists of individual GANs with the
appearance branch adjusting the facial image and the geometry branch adjusting
the facial landmarks in appearance and geometry aspects, respectively. Unlike
the traditional facial manipulations learning from paired faces, which are
infeasible to collect before and after enhancement of the same individual, we
achieve this by learning the features of attractiveness faces through
unsupervised adversarial learning. The proposed FA-GANs are able to extract
attractiveness features and impose them on the enhancement results. To better
enhance faces, both the geometry and appearance networks are considered to
refine the facial attractiveness by adjusting the geometry layout of faces and
the appearance of faces independently. To the best of our knowledge, we are the
first to enhance the facial attractiveness with GANs in both geometry and
appearance aspects. The experimental results suggest that our FA-GANs can
generate compelling perceptual results in both geometry structure and facial
appearance and outperform current state-of-the-art methods.
- Abstract(参考訳): 近年、顔の魅力の増進はコンピュータビジョンやグラフィックにおいて興味深い応用となっている。
顔のアイデンティティを保ちながら、画像や幾何学構造を操作することで、より魅力的な顔を生成することを目指している。
本稿では,ファガンと呼ばれる幾何学的面と外観面の両方において,顔の魅力を高めるための最初の生成的敵ネットワーク(gans)を提案する。
FA-GANは2つの枝を含み、顔の幾何学と顔の外観という2つの視点で顔の魅力を高める。
各ブランチは、顔画像を調整する外観枝と、顔のランドマークを外観面と幾何学面で調整する幾何学枝とからなる。
同一人物の強化前後で収集が困難である対面から学習する従来の顔操作とは異なり,教師なしの対面学習によって魅力的な顔の特徴を学習することでこれを実現する。
提案するFA-GANは, 魅力特性を抽出し, 強化結果に付加することができる。
顔の幾何学的レイアウトと顔の外観を独立して調整することにより、顔の幾何学的特徴を向上すると考えられる。
私たちの知る限りでは、私たちは幾何学面と外観面の両方において、ganによる顔の魅力を高める最初の人物です。
実験の結果,我々のFA-GANは幾何学的構造と顔の外観の両方において魅力的な知覚結果が得られることが示唆された。
関連論文リスト
- End-to-end Face-swapping via Adaptive Latent Representation Learning [12.364688530047786]
本稿では,高精細・高精細・高精細・高精細・高精細な顔交換のための新しいエンドツーエンド統合フレームワークを提案する。
顔の知覚とブレンドをエンドツーエンドのトレーニングとテストのプロセスに統合することで、野生の顔に高いリアルな顔スワッピングを実現することができる。
論文 参考訳(メタデータ) (2023-03-07T19:16:20Z) - Graph-based Generative Face Anonymisation with Pose Preservation [49.18049578591058]
AnonyGANは、顔の匿名化のためのGANベースのソリューションである。
ソースアイデンティティに対応する視覚情報を、任意の単一のイメージとして提供される条件IDに置き換える。
論文 参考訳(メタデータ) (2021-12-10T12:58:17Z) - MOST-GAN: 3D Morphable StyleGAN for Disentangled Face Image Manipulation [69.35523133292389]
本稿では,顔の物理的属性を明示的にモデル化するフレームワークを提案する。
提案手法であるMOST-GANは,GANの表現力と光リアリズムを,非線形3次元形態素モデルの物理的ゆがみおよび柔軟性と統合する。
ポートレート画像の物理的特性を完全に3D制御する写真リアルな操作を実現し、照明の極端な操作、表情、およびフルプロファイルビューまでのポーズのバリエーションを可能にする。
論文 参考訳(メタデータ) (2021-11-01T15:53:36Z) - Eyes Tell All: Irregular Pupil Shapes Reveal GAN-generated Faces [40.15016121723183]
GAN生成顔は不規則な瞳孔形状で露出できることを示す。
この現象は、GANモデルにおける生理的制約の欠如によって引き起こされる。
論文 参考訳(メタデータ) (2021-09-01T03:25:50Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - Face Hallucination via Split-Attention in Split-Attention Network [58.30436379218425]
畳み込みニューラルネットワーク(CNN)は、顔幻覚を促進するために広く用いられている。
顔の全体像とテクスチャの細部を同時に考慮し,新たな内部分割注意グループ(ESAG)を提案する。
これら2つの経路から特徴を融合させることにより、顔の構造の整合性と顔の詳細の忠実度が強化される。
論文 参考訳(メタデータ) (2020-10-22T10:09:31Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。