論文の概要: B\'ezierSketch: A generative model for scalable vector sketches
- arxiv url: http://arxiv.org/abs/2007.02190v2
- Date: Tue, 14 Jul 2020 15:13:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 13:30:29.738924
- Title: B\'ezierSketch: A generative model for scalable vector sketches
- Title(参考訳): B\'ezierSketch:スケーラブルなベクトルスケッチの生成モデル
- Authors: Ayan Das, Yongxin Yang, Timothy Hospedales, Tao Xiang and Yi-Zhe Song
- Abstract要約: B'ezierSketchは、完全ベクトルスケッチのための新しい生成モデルであり、自動的にスケーラブルで高解像度である。
まず,各ストロークを最適なB'ezier曲線に埋め込むようにエンコーダを訓練する。
これにより、スケッチをパラマタライズされたストロークの短いシーケンスとして扱うことができ、これにより、より長いスケッチのために、より多くのキャパシティを持つ再帰的なスケッチジェネレータを訓練することができる。
- 参考スコア(独自算出の注目度): 132.5223191478268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The study of neural generative models of human sketches is a fascinating
contemporary modeling problem due to the links between sketch image generation
and the human drawing process. The landmark SketchRNN provided breakthrough by
sequentially generating sketches as a sequence of waypoints. However this leads
to low-resolution image generation, and failure to model long sketches. In this
paper we present B\'ezierSketch, a novel generative model for fully vector
sketches that are automatically scalable and high-resolution. To this end, we
first introduce a novel inverse graphics approach to stroke embedding that
trains an encoder to embed each stroke to its best fit B\'ezier curve. This
enables us to treat sketches as short sequences of paramaterized strokes and
thus train a recurrent sketch generator with greater capacity for longer
sketches, while producing scalable high-resolution results. We report
qualitative and quantitative results on the Quick, Draw! benchmark.
- Abstract(参考訳): 人間のスケッチの神経生成モデルの研究は、スケッチ画像の生成と人間の描画過程の関係から、現代の興味深いモデリング問題となっている。
ランドマークであるSketchRNNは、一連のウェイポイントとしてスケッチを逐次生成することでブレークスルーを提供した。
しかし、これは低解像度の画像生成につながり、長いスケッチのモデル化に失敗する。
本稿では,完全ベクトルスケッチのための新しい生成モデルであるB\'ezierSketchについて述べる。
この目的のために、まず、エンコーダに各ストロークを最適なB'ezier曲線に埋め込むよう訓練する、ストローク埋め込みに対する新しい逆グラフアプローチを導入する。
これにより、スケッチをパラマテライズドストロークの短いシーケンスとして扱うことができ、より長いスケッチの容量で再帰的なスケッチジェネレータを訓練でき、スケーラブルな高解像度な結果が得られる。
我々はQuick, Draw!ベンチマークで定性的かつ定量的な結果を報告する。
関連論文リスト
- SketchTriplet: Self-Supervised Scenarized Sketch-Text-Image Triplet Generation [6.39528707908268]
シーンスケッチ用の大規模なペアデータセットは引き続き欠如している。
本稿では,既存のシーンスケッチに依存しないシーンスケッチ生成のための自己教師型手法を提案する。
シーンスケッチを中心にした大規模なデータセットをコントリビュートし、セマンティックに一貫した「テキスト・スケッチ・イメージ」三つ子を含む。
論文 参考訳(メタデータ) (2024-05-29T06:43:49Z) - SketchGPT: Autoregressive Modeling for Sketch Generation and Recognition [4.6519578789100215]
SketchGPTはフレキシブルなフレームワークで、シーケンスからシーケンスへの自動回帰モデルを用いてスケッチ生成と補完を行う。
複雑なスケッチを抽象的プリミティブの単純化されたシーケンスにマッピングすることで、自動回帰モデリングのための入力を大幅に合理化する。
論文 参考訳(メタデータ) (2024-05-06T01:24:14Z) - SketchINR: A First Look into Sketches as Implicit Neural Representations [120.4152701687737]
暗黙的ニューラルモデルを用いてベクトルスケッチの表現を前進させるSketchINRを提案する。
可変長ベクトルスケッチは、時間とストロークの関数として下層の形状を暗黙的に符号化する固定次元の潜時空間に圧縮される。
初めてSketchINRは、ストロークの数と複雑さの点で、さまざまな抽象化でスケッチを再現する人間の能力をエミュレートする。
論文 参考訳(メタデータ) (2024-03-14T12:49:29Z) - Sketch Video Synthesis [52.134906766625164]
フレームワイドB'ezier曲線で表現されたビデオのスケッチを行うための新しいフレームワークを提案する。
本手法は、スケッチベースのビデオ編集やビデオ合成によるビデオ再生における応用を解放する。
論文 参考訳(メタデータ) (2023-11-26T14:14:04Z) - Cloud2Curve: Generation and Vectorization of Parametric Sketches [109.02932608241227]
スケーラブルな高分解能ベクトルスケッチ生成モデルであるCloud2Curveを提案する。
我々はQuick, Draw!でモデルの生成とベクトル化能力を評価する。
そしてKMNISTデータセット。
論文 参考訳(メタデータ) (2021-03-29T12:09:42Z) - Sketch-Inspector: a Deep Mixture Model for High-Quality Sketch
Generation of Cats [0.0]
本稿では,次のストロークの形状を提案するために,CNN予測器を用いたスケッチ生成システムを提案する。
CNNに基づく識別器を導入し、最終製品の認識可能性を判定する。
猫の画像の識別が容易であるため、QuickDrawデータセットから選択した猫のスケッチを考える。
論文 参考訳(メタデータ) (2020-11-09T09:53:03Z) - Sketch-BERT: Learning Sketch Bidirectional Encoder Representation from
Transformers by Self-supervised Learning of Sketch Gestalt [125.17887147597567]
我々は、トランスフォーマー(Sketch-BERT)からのSketch BiBERT表現の学習モデルを提案する。
BERTをドメインのスケッチに一般化し、新しいコンポーネントと事前学習アルゴリズムを提案する。
Sketch-BERTの学習表現は,スケッチ認識,スケッチ検索,スケッチゲットといった下流タスクの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-05-19T01:35:44Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。