論文の概要: Foreground-guided Facial Inpainting with Fidelity Preservation
- arxiv url: http://arxiv.org/abs/2105.03342v1
- Date: Fri, 7 May 2021 15:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:15:05.284092
- Title: Foreground-guided Facial Inpainting with Fidelity Preservation
- Title(参考訳): 忠実性保存をともなう前景誘導顔面インペインティング
- Authors: Jireh Jam, Connah Kendrick, Vincent Drouard, Kevin Walker, Moi Hoon
Yap
- Abstract要約: 本稿では,畳み込みニューラルネットワーク層を用いて顔特徴を抽出・生成できるフォアグラウンド誘導型顔塗工フレームワークを提案する。
具体的には,表情の意味的能力推論,自然・不自然な特徴(メイクアップ)を用いた新しい損失関数を提案する。
提案手法は, 顔成分の高忠実度保存を, 質的に比較すると, 比較して定量的な結果を得た。
- 参考スコア(独自算出の注目度): 7.5089719291325325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial image inpainting, with high-fidelity preservation for image realism,
is a very challenging task. This is due to the subtle texture in key facial
features (component) that are not easily transferable. Many image inpainting
techniques have been proposed with outstanding capabilities and high
quantitative performances recorded. However, with facial inpainting, the
features are more conspicuous and the visual quality of the blended inpainted
regions are more important qualitatively. Based on these facts, we design a
foreground-guided facial inpainting framework that can extract and generate
facial features using convolutional neural network layers. It introduces the
use of foreground segmentation masks to preserve the fidelity. Specifically, we
propose a new loss function with semantic capability reasoning of facial
expressions, natural and unnatural features (make-up). We conduct our
experiments using the CelebA-HQ dataset, segmentation masks from CelebAMask-HQ
(for foreground guidance) and Quick Draw Mask (for missing regions). Our
proposed method achieved comparable quantitative results when compare to the
state of the art but qualitatively, it demonstrated high-fidelity preservation
of facial components.
- Abstract(参考訳): 画像リアリズムのための高忠実性保存を備えた顔画像の塗装は非常に難しい作業である。
これは、簡単に転送できない重要な顔の特徴(成分)の微妙なテクスチャが原因である。
多くの画像塗装技術が、優れた能力と高い定量的性能で提案されている。
しかし, 顔の塗布では特徴が顕著になり, 混合塗布領域の視覚的品質は質的にも重要となる。
これらの事実に基づいて,畳み込みニューラルネットワーク層を用いて顔特徴を抽出・生成できるフォアグラウンド誘導型顔塗工フレームワークを設計した。
前景のセグメンテーションマスクを用いて忠実さを保っている。
具体的には,表情,自然特徴,不自然な特徴(メイクアップ)を意味論的に推論する新たな損失関数を提案する。
我々は,CelebA-HQデータセット,CelebAMask-HQのセグメンテーションマスク(前景誘導用)およびQuick Draw Mask(行方不明地域用)を用いて実験を行った。
提案手法は, 顔成分の高忠実度保存を, 質的に比較すると, 比較して定量的な結果を得た。
関連論文リスト
- SimFLE: Simple Facial Landmark Encoding for Self-Supervised Facial
Expression Recognition in the Wild [3.4798852684389963]
顔のランドマークの効果的な符号化を学習できる自己教師型簡易顔ランドマーク符号化法(SimFLE)を提案する。
この目的のために、新しいFaceMAEモジュールを紹介します。
いくつかのFER-Wベンチマークの実験結果から、提案したSimFLEは顔のランドマークのローカライゼーションに優れていることが証明された。
論文 参考訳(メタデータ) (2023-03-14T06:30:55Z) - Diverse facial inpainting guided by exemplars [8.360536784609309]
本稿では,新しい多彩でインタラクティブな顔インペイントフレームワークEXE-GANを紹介する。
提案手法は, 入力画像のグローバルなスタイル, スタイル, および模範的なスタイルを活用することで, 生成的対向ネットワークに基づく顔の塗装を実現する。
CelebA-HQおよびFFHQデータセットの様々な実験結果と比較を行い,提案手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-02-13T16:29:45Z) - FT-TDR: Frequency-guided Transformer and Top-Down Refinement Network for
Blind Face Inpainting [77.78305705925376]
ブラインド・フェイス・インペインティング(ブラインド・フェイス・インペインティング)とは、顔画像の劣化した領域を明確に示さずに、視覚コンテンツを再構築する作業である。
本稿では、これらの課題に対処するために、周波数誘導変換器とTop-Down Refinement Network(FT-TDR)と呼ばれる新しい2段階ブラインドフェイス塗装法を提案する。
論文 参考訳(メタデータ) (2021-08-10T03:12:01Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - Network Architecture Search for Face Enhancement [82.25775020564654]
我々は、NASFE(Network Architecture Search for Face Enhancement)と呼ばれるマルチタスクの顔復元ネットワークを提案する。
NASFEは、単一の劣化(すなわち)を含む低品質の顔画像を高めることができる。
ノイズまたはぼやけ)または複数の劣化(ノイズ+ブラル+ローライト)
論文 参考訳(メタデータ) (2021-05-13T19:46:05Z) - Face Hallucination via Split-Attention in Split-Attention Network [58.30436379218425]
畳み込みニューラルネットワーク(CNN)は、顔幻覚を促進するために広く用いられている。
顔の全体像とテクスチャの細部を同時に考慮し,新たな内部分割注意グループ(ESAG)を提案する。
これら2つの経路から特徴を融合させることにより、顔の構造の整合性と顔の詳細の忠実度が強化される。
論文 参考訳(メタデータ) (2020-10-22T10:09:31Z) - Explainable Face Recognition [4.358626952482686]
本稿では,説明可能な顔認識のための総合的なベンチマークとベースライン評価を行う。
95人の被験者からなる3648個の三つ子(プローブ,配偶子,非配偶子)のキュレートしたセットである「インペイントゲーム」と呼ばれる新しい評価プロトコルを定義した。
探索画像内のどの領域が交配画像と一致しているかを最もよく説明するネットワークアテンションマップを生成するための説明可能なフェイスマーカを課題とする。
論文 参考訳(メタデータ) (2020-08-03T14:47:51Z) - Face Super-Resolution Guided by 3D Facial Priors [92.23902886737832]
シャープな顔構造を把握した3次元顔先行情報を明示的に組み込んだ新しい顔超解像法を提案する。
我々の研究は、顔属性のパラメトリック記述の融合に基づく3次元形態的知識を初めて探求したものである。
提案した3D先行画像は、最先端技術よりも優れた顔超解像結果が得られる。
論文 参考訳(メタデータ) (2020-07-18T15:26:07Z) - Domain Embedded Multi-model Generative Adversarial Networks for
Image-based Face Inpainting [44.598234654270584]
そこで本研究では,大規模刈り取り領域で顔画像の塗布を行うためのドメイン組込み多モデル生成逆数モデルを提案する。
CelebAとCelebA-HQの両方の顔データセットに対する実験により、提案手法が最先端の性能を達成したことを示す。
論文 参考訳(メタデータ) (2020-02-05T17:36:13Z) - Exploiting Semantics for Face Image Deblurring [121.44928934662063]
本稿では,深層畳み込みニューラルネットワークによる意味的手がかりを利用して,効果的かつ効率的な顔分解アルゴリズムを提案する。
顔のセマンティックラベルを入力先として組み込んで,顔の局所構造を正規化するための適応的構造損失を提案する。
提案手法は、より正確な顔の特徴と細部を持つシャープ画像を復元する。
論文 参考訳(メタデータ) (2020-01-19T13:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。