論文の概要: Domain Embedded Multi-model Generative Adversarial Networks for
Image-based Face Inpainting
- arxiv url: http://arxiv.org/abs/2002.02909v2
- Date: Sat, 20 Jun 2020 05:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 21:30:09.214018
- Title: Domain Embedded Multi-model Generative Adversarial Networks for
Image-based Face Inpainting
- Title(参考訳): ドメイン組込み多モデル生成対向ネットワークによる画像ベース顔インペインティング
- Authors: Xian Zhang, Xin Wang, Bin Kong, Canghong Shi, Youbing Yin, Qi Song,
Siwei Lyu, Jiancheng Lv, Canghong Shi, Xiaojie Li
- Abstract要約: そこで本研究では,大規模刈り取り領域で顔画像の塗布を行うためのドメイン組込み多モデル生成逆数モデルを提案する。
CelebAとCelebA-HQの両方の顔データセットに対する実験により、提案手法が最先端の性能を達成したことを示す。
- 参考スコア(独自算出の注目度): 44.598234654270584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior knowledge of face shape and structure plays an important role in face
inpainting. However, traditional face inpainting methods mainly focus on the
generated image resolution of the missing portion without consideration of the
special particularities of the human face explicitly and generally produce
discordant facial parts. To solve this problem, we present a domain embedded
multi-model generative adversarial model for inpainting of face images with
large cropped regions. We firstly represent only face regions using the latent
variable as the domain knowledge and combine it with the non-face parts
textures to generate high-quality face images with plausible contents. Two
adversarial discriminators are finally used to judge whether the generated
distribution is close to the real distribution or not. It can not only
synthesize novel image structures but also explicitly utilize the embedded face
domain knowledge to generate better predictions with consistency on structures
and appearance. Experiments on both CelebA and CelebA-HQ face datasets
demonstrate that our proposed approach achieved state-of-the-art performance
and generates higher quality inpainting results than existing ones.
- Abstract(参考訳): 顔の形状と構造に関する事前の知識は、顔の塗装において重要な役割を果たす。
しかし、従来の顔塗抹法は、人間の顔の特殊な特色を考慮せずに、被写体の画像分解に主眼を置き、一般的には不一致な顔部を生成する。
そこで本研究では,顔画像に大面積の被写体を塗布するドメイン組込み多モデル生成逆数モデルを提案する。
まず、潜在変数をドメイン知識として顔領域のみを表現し、非顔部分のテクスチャと組み合わせて、高品質な顔画像と可視な内容を生成する。
2つの逆微分器を用いて、生成した分布が実分布に近いか否かを判定する。
新しい画像構造を合成するだけでなく、組み込み顔ドメインの知識を明示的に利用し、構造と外観の一貫性を持ってより良い予測を生成することができる。
celeba と celeba-hq の2つの顔データセットにおける実験により,提案手法が最先端の性能を達成し,既存のデータよりも高品質なインペインティング結果を生成することを実証した。
関連論文リスト
- Optimal-Landmark-Guided Image Blending for Face Morphing Attacks [8.024953195407502]
本稿では,最適なランドマーク誘導画像ブレンディングを用いた顔形態形成攻撃を行うための新しい手法を提案する。
提案手法は, ランドマークの最適化とグラフ畳み込みネットワーク(GCN)によるランドマークと外観特徴の組み合わせにより, 従来のアプローチの限界を克服する。
論文 参考訳(メタデータ) (2024-01-30T03:45:06Z) - Diverse facial inpainting guided by exemplars [8.360536784609309]
本稿では,新しい多彩でインタラクティブな顔インペイントフレームワークEXE-GANを紹介する。
提案手法は, 入力画像のグローバルなスタイル, スタイル, および模範的なスタイルを活用することで, 生成的対向ネットワークに基づく顔の塗装を実現する。
CelebA-HQおよびFFHQデータセットの様々な実験結果と比較を行い,提案手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-02-13T16:29:45Z) - Face Deblurring Based on Separable Normalization and Adaptive
Denormalization [25.506065804812522]
Face Deblurringは、より明示的な構造と顔の詳細で、ぼやけた入力画像から透明な顔イメージを復元することを目的としている。
我々は、分離可能な正規化と適応的な非正規化に基づく効果的な顔分解ネットワークを設計する。
CelebAとCelebA-HQの両方のデータセットの実験結果から、提案した顔劣化ネットワークは、より詳細な顔構造を復元することが示された。
論文 参考訳(メタデータ) (2021-12-18T03:42:23Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - Joint Face Image Restoration and Frontalization for Recognition [79.78729632975744]
現実世界のシナリオでは、大きなポーズ、悪い照明、低解像度、ぼやけ、ノイズなど、多くの要因が顔認識性能を損なう可能性がある。
それまでの努力は通常、まず品質の低い顔から高品質な顔に復元し、次に顔認識を行う。
与えられた低品質の顔からフロンダル化された高品質の顔を復元する多段階顔復元モデルを提案する。
論文 参考訳(メタデータ) (2021-05-12T03:52:41Z) - Foreground-guided Facial Inpainting with Fidelity Preservation [7.5089719291325325]
本稿では,畳み込みニューラルネットワーク層を用いて顔特徴を抽出・生成できるフォアグラウンド誘導型顔塗工フレームワークを提案する。
具体的には,表情の意味的能力推論,自然・不自然な特徴(メイクアップ)を用いた新しい損失関数を提案する。
提案手法は, 顔成分の高忠実度保存を, 質的に比較すると, 比較して定量的な結果を得た。
論文 参考訳(メタデータ) (2021-05-07T15:50:58Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。