論文の概要: Generating Sketches in a Hierarchical Auto-Regressive Process for Flexible Sketch Drawing Manipulation at Stroke-Level
- arxiv url: http://arxiv.org/abs/2511.07889v1
- Date: Wed, 12 Nov 2025 01:26:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.525175
- Title: Generating Sketches in a Hierarchical Auto-Regressive Process for Flexible Sketch Drawing Manipulation at Stroke-Level
- Title(参考訳): ストロークレベルにおけるフレキシブルスケッチ描画操作のための階層的自己回帰過程におけるスケッチの生成
- Authors: Sicong Zang, Shuhui Gao, Zhijun Fang,
- Abstract要約: 最近の研究では、ストローク埋め込みの値を条件として編集することで、ストロークレベルのスケッチ特性を制御している。
本稿では,階層的な自動回帰スケッチ生成プロセスを提案する。
露出した編集可能なストローク埋め込みを調整することにより、世代間いつでもストロークレベルのスケッチ描画を操作できる。
- 参考スコア(独自算出の注目度): 8.928752302757106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating sketches with specific patterns as expected, i.e., manipulating sketches in a controllable way, is a popular task. Recent studies control sketch features at stroke-level by editing values of stroke embeddings as conditions. However, in order to provide generator a global view about what a sketch is going to be drawn, all these edited conditions should be collected and fed into generator simultaneously before generation starts, i.e., no further manipulation is allowed during sketch generating process. In order to realize sketch drawing manipulation more flexibly, we propose a hierarchical auto-regressive sketch generating process. Instead of generating an entire sketch at once, each stroke in a sketch is generated in a three-staged hierarchy: 1) predicting a stroke embedding to represent which stroke is going to be drawn, and 2) anchoring the predicted stroke on the canvas, and 3) translating the embedding to a sequence of drawing actions to form the full sketch. Moreover, the stroke prediction, anchoring and translation are proceeded auto-regressively, i.e., both the recently generated strokes and their positions are considered to predict the current one, guiding model to produce an appropriate stroke at a suitable position to benefit the full sketch generation. It is flexible to manipulate stroke-level sketch drawing at any time during generation by adjusting the exposed editable stroke embeddings.
- Abstract(参考訳): 特定のパターンでスケッチを生成する、すなわち、制御可能な方法でスケッチを操作することが一般的なタスクである。
最近の研究では、ストローク埋め込みの値を条件として編集することで、ストロークレベルのスケッチ特性を制御している。
しかし、スケッチの描画に関するグローバルなビューをジェネレータに提供するためには、これらの編集された条件をすべて収集して、生成開始前に同時にジェネレータに供給する必要がある。
スケッチ描画操作をより柔軟に行うために,階層的な自動回帰スケッチ生成プロセスを提案する。
スケッチ全体を一度に生成する代わりに、スケッチの各ストロークは、3段階の階層で生成される。
1)どのストロークが描画されるかを示すために、ストローク埋め込みを予測し、
2)予測ストロークをキャンバスに固定し,
3)埋め込みを描画アクションのシーケンスに変換して、完全なスケッチを作成します。
さらに、最近生成されたストロークとそれらの位置の両方を自動回帰的に進行させることにより、スケッチ生成の恩恵を受ける適切な位置に適切なストロークを生成するためのモデルが導かれる。
露出した編集可能なストローク埋め込みを調整することにより、世代間いつでもストロークレベルのスケッチ描画を操作できる。
関連論文リスト
- SketchAgent: Generating Structured Diagrams from Hand-Drawn Sketches [54.06877048295693]
SketchAgentは手描きスケッチの構造化図への変換を自動化するシステムである。
SketchAgentは、スケッチ認識、シンボリック推論、反復検証を統合し、セマンティックコヒーレントで構造的に正確な図を生成する。
ダイアグラム生成プロセスの合理化によって、SketchAgentはデザイン、教育、エンジニアリングの分野で大きな可能性を秘めています。
論文 参考訳(メタデータ) (2025-08-02T07:22:51Z) - StrokeFusion: Vector Sketch Generation via Joint Stroke-UDF Encoding and Latent Sequence Diffusion [13.862427684807486]
StrokeFusionはベクトルスケッチ生成のための2段階のフレームワークである。
デュアルモードのスケッチ機能学習ネットワークがあり、ストロークを高品質の潜伏空間にマッピングする。
これは、生成中のストローク位置、スケール、軌道を同時に調整するストロークレベルの潜在拡散モデルを利用する。
論文 参考訳(メタデータ) (2025-03-31T06:03:03Z) - SwiftSketch: A Diffusion Model for Image-to-Vector Sketch Generation [57.47730473674261]
我々は,画像条件付きベクトルスケッチ生成モデルであるSwiftSketchを紹介した。
SwiftSketchは、ガウス分布からサンプリングされたストローク制御ポイントを段階的に復調することによって動作する。
ControlSketchは、深度認識制御ネットを通じて正確な空間制御を組み込むことで、SDSベースの技術を強化する方法である。
論文 参考訳(メタデータ) (2025-02-12T18:57:12Z) - Sketch-Guided Motion Diffusion for Stylized Cinemagraph Synthesis [15.988686454889823]
Sketch2Cinemagraphは、フリーハンドスケッチからスタイリングされたシネマグラフの条件付き生成を可能にするスケッチ誘導フレームワークである。
生成した景観画像の流動領域における運動場を推定する新しい潜在運動拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-12-01T01:32:59Z) - SketchEdit: Mask-Free Local Image Manipulation with Partial Sketches [95.45728042499836]
マスクレス局所画像操作という,スケッチに基づく画像操作の新しいパラダイムを提案する。
本モデルでは,対象の修正領域を自動的に予測し,構造型ベクトルにエンコードする。
ジェネレータは、スタイルベクトルとスケッチに基づいて、新しいイメージコンテンツを合成する。
論文 参考訳(メタデータ) (2021-11-30T02:42:31Z) - Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches [65.96417928860039]
スケッチのメッシュ変換にはエンコーダ/デコーダアーキテクチャを使用する。
このアプローチはデプロイが容易で、スタイル変更に堅牢であり、効果的であることを示します。
論文 参考訳(メタデータ) (2021-04-01T14:10:59Z) - Sketch Generation with Drawing Process Guided by Vector Flow and
Grayscale [44.23055069141409]
高品質な鉛筆スケッチを生成するだけでなく,描画プロセスも提供できる新しい画像-ペンシル変換法を提案する。
既存の鉛筆スケッチアルゴリズムは、ストロークの直接模倣ではなくテクスチャレンダリングに基づいています。
論文 参考訳(メタデータ) (2020-12-16T15:02:53Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - B\'ezierSketch: A generative model for scalable vector sketches [132.5223191478268]
B'ezierSketchは、完全ベクトルスケッチのための新しい生成モデルであり、自動的にスケーラブルで高解像度である。
まず,各ストロークを最適なB'ezier曲線に埋め込むようにエンコーダを訓練する。
これにより、スケッチをパラマタライズされたストロークの短いシーケンスとして扱うことができ、これにより、より長いスケッチのために、より多くのキャパシティを持つ再帰的なスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2020-07-04T21:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。