論文の概要: Sketch Generation with Drawing Process Guided by Vector Flow and
Grayscale
- arxiv url: http://arxiv.org/abs/2012.09004v1
- Date: Wed, 16 Dec 2020 15:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:56:44.245976
- Title: Sketch Generation with Drawing Process Guided by Vector Flow and
Grayscale
- Title(参考訳): ベクトル流とグレースケールによる描画過程によるスケッチ生成
- Authors: Zhengyan Tong, Xuanhong Chen, Bingbing Ni, Xiaohang Wang
- Abstract要約: 高品質な鉛筆スケッチを生成するだけでなく,描画プロセスも提供できる新しい画像-ペンシル変換法を提案する。
既存の鉛筆スケッチアルゴリズムは、ストロークの直接模倣ではなくテクスチャレンダリングに基づいています。
- 参考スコア(独自算出の注目度): 44.23055069141409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel image-to-pencil translation method that could not only
generate high-quality pencil sketches but also offer the drawing process.
Existing pencil sketch algorithms are based on texture rendering rather than
the direct imitation of strokes, making them unable to show the drawing process
but only a final result. To address this challenge, we first establish a pencil
stroke imitation mechanism. Next, we develop a framework with three branches to
guide stroke drawing: the first branch guides the direction of the strokes, the
second branch determines the shade of the strokes, and the third branch
enhances the details further. Under this framework's guidance, we can produce a
pencil sketch by drawing one stroke every time. Our method is fully
interpretable. Comparison with existing pencil drawing algorithms shows that
our method is superior to others in terms of texture quality, style, and user
evaluation.
- Abstract(参考訳): 高品質な鉛筆スケッチを生成するだけでなく,描画プロセスも提供できる新しい画像-ペンシル変換法を提案する。
既存の鉛筆スケッチアルゴリズムは、ストロークの直接の模倣ではなく、テクスチャレンダリングに基づいており、描画プロセスは表示できないが最終的な結果に過ぎない。
この課題に対処するため,まず鉛筆ストローク模倣機構を確立する。
次に、ストローク描画を導く3つのブランチからなるフレームワークを開発し、第1のブランチがストロークの方向を案内し、第2のブランチがストロークのシェードを決定し、第3のブランチがさらに詳細を強化する。
このフレームワークのガイダンスでは、毎回1ストロークを描くことで、鉛筆のスケッチを作成できる。
我々の方法は完全に解釈できる。
既存の鉛筆描画アルゴリズムと比較すると,本手法はテクスチャ品質,スタイル,ユーザ評価の点で他よりも優れている。
関連論文リスト
- Equipping Sketch Patches with Context-Aware Positional Encoding for Graphic Sketch Representation [4.961362040453441]
グラフィックスケッチ表現を学習するための変分描画保護手法を提案する。
スケッチ描画をグラフエッジに注入する代わりに、これらのシーケンシャル情報をグラフノードにのみ埋め込む。
実験結果から,本手法はスケッチのヒーリングと制御可能なスケッチ合成を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-03-26T09:26:12Z) - Stylized Face Sketch Extraction via Generative Prior with Limited Data [6.727433982111717]
StyleSketchは、顔画像から高解像度のスタイリングスケッチを抽出する方法である。
事前訓練されたStyleGANの深い特徴の豊富なセマンティクスを用いて、16対の顔とそれに対応するスケッチイメージでスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2024-03-17T16:25:25Z) - PatternPortrait: Draw Me Like One of Your Scribbles [2.01243755755303]
本稿では,絵画から抽象的な肖像画を作成する方法を紹介する。
その独特のスタイルは、単一のフリーハンドパターンのスケッチを参照として利用して、シェーディングのためのユニークなパターンを生成する。
この方法は、画像から顔や身体の特徴を抽出し、それらをベクトル線に変換する。
論文 参考訳(メタデータ) (2024-01-22T12:33:11Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches [65.96417928860039]
スケッチのメッシュ変換にはエンコーダ/デコーダアーキテクチャを使用する。
このアプローチはデプロイが容易で、スタイル変更に堅牢であり、効果的であることを示します。
論文 参考訳(メタデータ) (2021-04-01T14:10:59Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - B\'ezierSketch: A generative model for scalable vector sketches [132.5223191478268]
B'ezierSketchは、完全ベクトルスケッチのための新しい生成モデルであり、自動的にスケーラブルで高解像度である。
まず,各ストロークを最適なB'ezier曲線に埋め込むようにエンコーダを訓練する。
これにより、スケッチをパラマタライズされたストロークの短いシーケンスとして扱うことができ、これにより、より長いスケッチのために、より多くのキャパシティを持つ再帰的なスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2020-07-04T21:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。