論文の概要: Face Sketch Synthesis with Style Transfer using Pyramid Column Feature
- arxiv url: http://arxiv.org/abs/2009.08679v1
- Date: Fri, 18 Sep 2020 08:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 03:06:59.213039
- Title: Face Sketch Synthesis with Style Transfer using Pyramid Column Feature
- Title(参考訳): ピラミッドコラム特徴を用いたスタイル転送による顔スケッチ合成
- Authors: Chaofeng Chen, Xiao Tan, and Kwan-Yee K. Wong
- Abstract要約: 写真から顔のスケッチを合成するためのディープニューラルネットワークに基づく新しいフレームワークを提案する。
まず、顔の形状と重要な顔の特徴を概説する内容画像を生成する。
その後、スケッチの詳細を強化するためにテクスチャとシェーディングが追加される。
- 参考スコア(独自算出の注目度): 22.03011875851739
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we propose a novel framework based on deep neural networks for
face sketch synthesis from a photo. Imitating the process of how artists draw
sketches, our framework synthesizes face sketches in a cascaded manner. A
content image is first generated that outlines the shape of the face and the
key facial features. Textures and shadings are then added to enrich the details
of the sketch. We utilize a fully convolutional neural network (FCNN) to create
the content image, and propose a style transfer approach to introduce textures
and shadings based on a newly proposed pyramid column feature. We demonstrate
that our style transfer approach based on the pyramid column feature can not
only preserve more sketch details than the common style transfer method, but
also surpasses traditional patch based methods. Quantitative and qualitative
evaluations suggest that our framework outperforms other state-of-the-arts
methods, and can also generalize well to different test images. Codes are
available at https://github.com/chaofengc/Face-Sketch
- Abstract(参考訳): 本稿では,写真から顔のスケッチを合成するためのディープニューラルネットワークに基づく新しいフレームワークを提案する。
アーティストがスケッチを描く過程を模倣し、顔のスケッチを逐次的に合成する。
まず、顔の形状と重要な顔の特徴を概観するコンテンツ画像を生成する。
次にテクスチャとシェーディングを追加してスケッチの詳細を豊かにする。
我々は、完全な畳み込みニューラルネットワーク(FCNN)を用いてコンテンツ画像を作成し、新しく提案されたピラミッド列の特徴に基づくテクスチャやシェーディングを導入するスタイル転送手法を提案する。
ピラミッド列の特徴に基づくスタイル転送手法は,一般的なスタイル転送法よりもスケッチの詳細を保存できるだけでなく,従来のパッチベースの手法を超越することを示す。
定量的および定性的な評価は、我々のフレームワークが他の最先端手法よりも優れており、異なるテスト画像によく対応できることを示している。
コードはhttps://github.com/chaofengc/Face-Sketchで入手できる。
関連論文リスト
- Stylized Face Sketch Extraction via Generative Prior with Limited Data [6.727433982111717]
StyleSketchは、顔画像から高解像度のスタイリングスケッチを抽出する方法である。
事前訓練されたStyleGANの深い特徴の豊富なセマンティクスを用いて、16対の顔とそれに対応するスケッチイメージでスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2024-03-17T16:25:25Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - SketchDreamer: Interactive Text-Augmented Creative Sketch Ideation [111.2195741547517]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,制御されたスケッチを生成する手法を提案する。
我々の目標は、プロでないユーザにスケッチを作成させ、一連の最適化プロセスを通じて物語をストーリーボードに変換することです。
論文 参考訳(メタデータ) (2023-08-27T19:44:44Z) - Text-Guided Scene Sketch-to-Photo Synthesis [5.431298869139175]
テキストガイダンスを用いたシーンレベルのスケッチ・ツー・フォト合成手法を提案する。
モデルのトレーニングには,写真の集合から自己教師付き学習を用いる。
実験により,カラー画像から抽出されていないオリジナルスケッチ画像を視覚的品質の高い写真に変換することを確認した。
論文 参考訳(メタデータ) (2023-02-14T08:13:36Z) - Exemplar-Based 3D Portrait Stylization [23.585334925548064]
ワンショット3Dポートレートスタイル転送のための最初のフレームワークを提示する。
形状が誇張され、テクスチャがスタイリングされた3Dフェイスモデルを生成することができる。
本手法は,異なるスタイルの芸術的効果を強く達成し,既存の手法より優れる。
論文 参考訳(メタデータ) (2021-04-29T17:59:54Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - Deep Generation of Face Images from Sketches [36.146494762987146]
ディープ・イメージ・ツー・イメージの翻訳技術により、フリーハンドスケッチから高速に顔画像を生成することができる。
既存のソリューションはスケッチに過度に適合する傾向にあり、プロのスケッチやエッジマップを入力として必要とします。
本稿では,画像の形状空間を暗黙的にモデル化し,この空間の顔画像を合成し,入力スケッチを近似する手法を提案する。
本手法は,入力スケッチをソフトな制約として使用することにより,粗いスケッチや不完全なスケッチであっても高品質な顔画像を生成することができる。
論文 参考訳(メタデータ) (2020-06-01T16:20:23Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。