論文の概要: DeepFacePencil: Creating Face Images from Freehand Sketches
- arxiv url: http://arxiv.org/abs/2008.13343v1
- Date: Mon, 31 Aug 2020 03:35:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 07:10:03.005018
- Title: DeepFacePencil: Creating Face Images from Freehand Sketches
- Title(参考訳): DeepFacePencil: フリーハンドスケッチから顔画像を作成する
- Authors: Yuhang Li and Xuejin Chen and Binxin Yang and Zihan Chen and Zhihua
Cheng and Zheng-Jun Zha
- Abstract要約: 既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
- 参考スコア(独自算出の注目度): 77.00929179469559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the task of generating photo-realistic face images
from hand-drawn sketches. Existing image-to-image translation methods require a
large-scale dataset of paired sketches and images for supervision. They
typically utilize synthesized edge maps of face images as training data.
However, these synthesized edge maps strictly align with the edges of the
corresponding face images, which limit their generalization ability to real
hand-drawn sketches with vast stroke diversity. To address this problem, we
propose DeepFacePencil, an effective tool that is able to generate
photo-realistic face images from hand-drawn sketches, based on a novel dual
generator image translation network during training. A novel spatial attention
pooling (SAP) is designed to adaptively handle stroke distortions which are
spatially varying to support various stroke styles and different levels of
details. We conduct extensive experiments and the results demonstrate the
superiority of our model over existing methods on both image quality and model
generalization to hand-drawn sketches.
- Abstract(参考訳): 本稿では,手描きスケッチから写実的顔画像を生成する作業について検討する。
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
彼らは通常、訓練データとして顔画像の合成エッジマップを使用する。
しかし、これらの合成エッジマップは対応する顔画像のエッジと厳密に一致し、膨大なストロークの多様性を持つ実際の手書きスケッチへの一般化能力を制限する。
そこで本研究では,手描きスケッチから写実的顔画像を生成するための効果的なツールであるdeepfacepencilを提案する。
空間的アテンションプーリング(SAP)は、様々なストロークスタイルと様々な詳細レベルをサポートするために空間的に変化するストローク歪みを適応的に扱うように設計されている。
その結果,手描きスケッチに対する画質とモデル一般化の両面において,既存の手法よりも優れたモデルが得られた。
関連論文リスト
- Stylized Face Sketch Extraction via Generative Prior with Limited Data [6.727433982111717]
StyleSketchは、顔画像から高解像度のスタイリングスケッチを抽出する方法である。
事前訓練されたStyleGANの深い特徴の豊富なセマンティクスを用いて、16対の顔とそれに対応するスケッチイメージでスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2024-03-17T16:25:25Z) - Picture that Sketch: Photorealistic Image Generation from Abstract
Sketches [109.69076457732632]
この論文は、あなたや私のような訓練を受けていないアマチュアの抽象的で変形した普通のスケッチから、それをフォトリアリスティックなイメージに変えます。
まず、エッジマップのようなスケッチを指示するのではなく、抽象的なフリーハンドな人間のスケッチで作業することを目指しています。
そうすることで、スケッチから写真までのパイプラインを民主化し、スケッチがどれだけよいかに関わらず、スケッチを"写真化"します。
論文 参考訳(メタデータ) (2023-03-20T14:49:03Z) - DeepPortraitDrawing: Generating Human Body Images from Freehand Sketches [75.4318318890065]
本稿では、大まかに描かれたスケッチをリアルな人体画像に変換するためのフレームワークであるDeepDrawingを紹介する。
様々なポーズの下で複雑な体形を符号化するために,我々は局所的・言語的アプローチをとる。
本手法は,最新のスケッチ・ツー・イメージ合成技術よりもリアルな画像を生成する。
論文 参考訳(メタデータ) (2022-05-04T14:02:45Z) - Quality Metric Guided Portrait Line Drawing Generation from Unpaired
Training Data [88.78171717494688]
本研究では,顔画像から肖像画への自動変換手法を提案する。
本手法は,(1)1つのネットワークを用いて複数のスタイルで高品質な肖像画を生成することを学習し,(2)トレーニングデータに見つからない「新しいスタイル」の肖像画を生成する。
論文 参考訳(メタデータ) (2022-02-08T06:49:57Z) - dualFace:Two-Stage Drawing Guidance for Freehand Portrait Sketching [8.83917959649942]
dualFaceは、グローバルおよびローカルのビジュアルガイダンスを提供する2段階の描画支援で構成されています。
グローバルガイダンスの段階では、ユーザはいくつかの輪郭線を描き、デュアルフェイスはキャンバスの背景に推奨の輪郭線を表示する。
ローカルガイダンスの段階では、ユーザ描画輪郭線から深い生成モデルで詳細なポートレート画像を合成しますが、合成結果を詳細な描画ガイダンスとして使用します。
論文 参考訳(メタデータ) (2021-04-26T00:56:37Z) - Learning to Caricature via Semantic Shape Transform [95.25116681761142]
本稿では,意味的形状変換に基づくアルゴリズムを提案する。
提案手法は,顔の構造を維持しつつ,視覚的に心地よい形状の誇張を表現できることを示す。
論文 参考訳(メタデータ) (2020-08-12T03:41:49Z) - Deep Generation of Face Images from Sketches [36.146494762987146]
ディープ・イメージ・ツー・イメージの翻訳技術により、フリーハンドスケッチから高速に顔画像を生成することができる。
既存のソリューションはスケッチに過度に適合する傾向にあり、プロのスケッチやエッジマップを入力として必要とします。
本稿では,画像の形状空間を暗黙的にモデル化し,この空間の顔画像を合成し,入力スケッチを近似する手法を提案する。
本手法は,入力スケッチをソフトな制約として使用することにより,粗いスケッチや不完全なスケッチであっても高品質な顔画像を生成することができる。
論文 参考訳(メタデータ) (2020-06-01T16:20:23Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。