論文の概要: Sketch Generation with Drawing Process Guided by Vector Flow and
Grayscale
- arxiv url: http://arxiv.org/abs/2012.09004v1
- Date: Wed, 16 Dec 2020 15:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:56:44.245976
- Title: Sketch Generation with Drawing Process Guided by Vector Flow and
Grayscale
- Title(参考訳): ベクトル流とグレースケールによる描画過程によるスケッチ生成
- Authors: Zhengyan Tong, Xuanhong Chen, Bingbing Ni, Xiaohang Wang
- Abstract要約: 高品質な鉛筆スケッチを生成するだけでなく,描画プロセスも提供できる新しい画像-ペンシル変換法を提案する。
既存の鉛筆スケッチアルゴリズムは、ストロークの直接模倣ではなくテクスチャレンダリングに基づいています。
- 参考スコア(独自算出の注目度): 44.23055069141409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel image-to-pencil translation method that could not only
generate high-quality pencil sketches but also offer the drawing process.
Existing pencil sketch algorithms are based on texture rendering rather than
the direct imitation of strokes, making them unable to show the drawing process
but only a final result. To address this challenge, we first establish a pencil
stroke imitation mechanism. Next, we develop a framework with three branches to
guide stroke drawing: the first branch guides the direction of the strokes, the
second branch determines the shade of the strokes, and the third branch
enhances the details further. Under this framework's guidance, we can produce a
pencil sketch by drawing one stroke every time. Our method is fully
interpretable. Comparison with existing pencil drawing algorithms shows that
our method is superior to others in terms of texture quality, style, and user
evaluation.
- Abstract(参考訳): 高品質な鉛筆スケッチを生成するだけでなく,描画プロセスも提供できる新しい画像-ペンシル変換法を提案する。
既存の鉛筆スケッチアルゴリズムは、ストロークの直接の模倣ではなく、テクスチャレンダリングに基づいており、描画プロセスは表示できないが最終的な結果に過ぎない。
この課題に対処するため,まず鉛筆ストローク模倣機構を確立する。
次に、ストローク描画を導く3つのブランチからなるフレームワークを開発し、第1のブランチがストロークの方向を案内し、第2のブランチがストロークのシェードを決定し、第3のブランチがさらに詳細を強化する。
このフレームワークのガイダンスでは、毎回1ストロークを描くことで、鉛筆のスケッチを作成できる。
我々の方法は完全に解釈できる。
既存の鉛筆描画アルゴリズムと比較すると,本手法はテクスチャ品質,スタイル,ユーザ評価の点で他よりも優れている。
関連論文リスト
- I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Geometric Understanding of Sketches [0.0]
そこで本研究では,システムのスケッチの幾何学的理解を支援する2つの手法について検討する。
最初の研究は、グラフ構造としての2次元線描画の解釈を扱い、また、ロボットによる物理的再構成によってその効果を示す。
2つ目の研究では、3次元幾何学に関する情報に明示的にアクセスすることなく、スケッチベースシステムの3次元幾何学的理解をテストする。
論文 参考訳(メタデータ) (2022-04-13T23:55:51Z) - Sketching without Worrying: Noise-Tolerant Sketch-Based Image Retrieval [103.84923197609513]
恐怖とスケッチの問題(つまり「私はスケッチできない」)は広く採用されていることで致命的であることが証明されている。
本稿では,この「偽」の見出しに取り組み,既存の検索モデルのための補助モジュールを初めて提案する。
論文 参考訳(メタデータ) (2022-03-28T14:55:20Z) - Learning to generate line drawings that convey geometry and semantics [22.932131011984513]
本稿では,写真から線画を作成する方法を提案する。
線画はシーン情報のエンコーディングであり,3次元形状と意味的意味を伝達しようとする。
線描画の画像特徴から深度情報を予測する幾何学的損失と、線描画のCLIP特徴と対応する写真とを一致させる意味的損失を導入する。
論文 参考訳(メタデータ) (2022-03-23T19:27:41Z) - Quality Metric Guided Portrait Line Drawing Generation from Unpaired
Training Data [88.78171717494688]
本研究では,顔画像から肖像画への自動変換手法を提案する。
本手法は,(1)1つのネットワークを用いて複数のスタイルで高品質な肖像画を生成することを学習し,(2)トレーニングデータに見つからない「新しいスタイル」の肖像画を生成する。
論文 参考訳(メタデータ) (2022-02-08T06:49:57Z) - Multi-granularity Association Learning Framework for on-the-fly
Fine-Grained Sketch-based Image Retrieval [7.797006835701767]
きめ細かいスケッチベース画像検索(FG-SBIR)は、与えられたクエリスケッチで特定の写真を取得する問題に対処する。
本研究では,最小のストローク数で対象写真を検索することを目的とした(不完全スケッチ)。
非完全スケッチの埋め込み空間をさらに最適化する多粒性関連学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-13T14:38:50Z) - One Sketch for All: One-Shot Personalized Sketch Segmentation [84.45203849671003]
そこで本研究では,最初のワンショットパーソナライズドスケッチセグメンテーション手法を提案する。
我々は、同じカテゴリに属するすべてのスケッチを、特定の部分アノテーション付きの1つのスケッチでセグメント化することを目指している。
私たちは、例に埋め込まれた部分のセマンティクスを保存し、入力スタイルと抽象化に堅牢です。
論文 参考訳(メタデータ) (2021-12-20T20:10:44Z) - Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches [65.96417928860039]
スケッチのメッシュ変換にはエンコーダ/デコーダアーキテクチャを使用する。
このアプローチはデプロイが容易で、スタイル変更に堅牢であり、効果的であることを示します。
論文 参考訳(メタデータ) (2021-04-01T14:10:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。