論文の概要: SVGFusion: Scalable Text-to-SVG Generation via Vector Space Diffusion
- arxiv url: http://arxiv.org/abs/2412.10437v1
- Date: Wed, 11 Dec 2024 09:02:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:59:09.772468
- Title: SVGFusion: Scalable Text-to-SVG Generation via Vector Space Diffusion
- Title(参考訳): SVGFusion:ベクトル空間拡散によるスケーラブルテキスト-SVG生成
- Authors: Ximing Xing, Juncheng Hu, Jing Zhang, Dong Xu, Qian Yu,
- Abstract要約: SVGFusionは、現実のSVGデータへのスケーリングが可能なテキストからSVGモデルである。
人気のあるText-to-Imageフレームワークを使って、ベクターグラフィックスのための連続的な潜伏空間を学習する。
品質と一般化性の向上を実現し、新たなSVGコンテンツ作成を実現する。
- 参考スコア(独自算出の注目度): 32.01103570298614
- License:
- Abstract: The generation of Scalable Vector Graphics (SVG) assets from textual data remains a significant challenge, largely due to the scarcity of high-quality vector datasets and the limitations in scalable vector representations required for modeling intricate graphic distributions. This work introduces SVGFusion, a Text-to-SVG model capable of scaling to real-world SVG data without reliance on a text-based discrete language model or prolonged SDS optimization. The essence of SVGFusion is to learn a continuous latent space for vector graphics with a popular Text-to-Image framework. Specifically, SVGFusion consists of two modules: a Vector-Pixel Fusion Variational Autoencoder (VP-VAE) and a Vector Space Diffusion Transformer (VS-DiT). VP-VAE takes both the SVGs and corresponding rasterizations as inputs and learns a continuous latent space, whereas VS-DiT learns to generate a latent code within this space based on the text prompt. Based on VP-VAE, a novel rendering sequence modeling strategy is proposed to enable the latent space to embed the knowledge of construction logics in SVGs. This empowers the model to achieve human-like design capabilities in vector graphics, while systematically preventing occlusion in complex graphic compositions. Moreover, our SVGFusion's ability can be continuously improved by leveraging the scalability of the VS-DiT by adding more VS-DiT blocks. A large-scale SVG dataset is collected to evaluate the effectiveness of our proposed method. Extensive experimentation has confirmed the superiority of our SVGFusion over existing SVG generation methods, achieving enhanced quality and generalizability, thereby establishing a novel framework for SVG content creation. Code, model, and data will be released at: \href{https://ximinng.github.io/SVGFusionProject/}{https://ximinng.github.io/SVGFusionProject/}
- Abstract(参考訳): テキストデータからのスケーラブルベクトルグラフィックス(SVG)資産の生成は、高品質なベクトルデータセットの不足と、複雑なグラフィック分布のモデリングに必要なスケーラブルなベクトル表現の制限により、依然として大きな課題である。
本研究は,テキストベース離散言語モデルや長期SDS最適化に依存することなく,実世界のSVGデータにスケール可能なテキスト間SVGモデルであるSVGFusionを紹介する。
SVGFusionの本質は、人気のあるText-to-Imageフレームワークを用いて、ベクトルグラフィックスのための連続的な潜伏空間を学習することである。
具体的には、SVGFusionはVector-Pixel Fusion Variational Autoencoder (VP-VAE)とVector Space Diffusion Transformer (VS-DiT)の2つのモジュールで構成される。
VP-VAEはSVGと対応するラスタライゼーションの両方を入力として受け取り、連続的な潜伏空間を学習する一方、VS-DiTはテキストプロンプトに基づいてこの空間内で潜伏コードを生成することを学習する。
VP-VAE に基づいた新しいレンダリングシーケンスモデリング手法を提案し,SVG に構築論理の知識を埋め込む。
これにより、複雑なグラフィック構成の閉塞を体系的に防止しつつ、ベクトルグラフィックスにおいて人間のような設計能力を達成することができる。
さらに、VS-DiTブロックを追加することで、VS-DiTのスケーラビリティを活用することで、SVGFusionの能力を継続的に改善することができる。
提案手法の有効性を評価するため,大規模SVGデータセットを収集した。
大規模な実験により,既存のSVG生成法よりもSVGFの優位性が確認され,品質と一般化性が向上し,SVGコンテンツ作成のための新たな枠組みが確立された。
コード、モデル、データは次の通りリリースされる。 \href{https://ximinng.github.io/SVGFusionProject/}{https://ximinng.github.io/SVGFusionProject/}
関連論文リスト
- NeuralSVG: An Implicit Representation for Text-to-Vector Generation [54.4153300455889]
本稿では,テキストプロンプトからベクトルグラフィックスを生成する暗黙的なニューラル表現であるNeuralSVGを提案する。
生成したSVGの層構造を促進するために,ドロップアウトに基づく正規化手法を導入する。
ニューラルSVGは、構造化された柔軟なSVGを生成する際に、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-01-07T18:50:06Z) - SVGBuilder: Component-Based Colored SVG Generation with Text-Guided Autoregressive Transformers [5.921625661186367]
本稿では,テキスト入力から高品質な色付きSVGを生成するためのコンポーネントベース自動回帰モデルを提案する。
計算オーバーヘッドを大幅に削減し、従来の方法に比べて効率を向上する。
既存のSVGデータセットの限界に対処し、我々の研究を支援するために、カラーSVGの最初の大規模データセットであるColorSVG-100Kを紹介する。
論文 参考訳(メタデータ) (2024-12-13T15:24:11Z) - SuperSVG: Superpixel-based Scalable Vector Graphics Synthesis [66.44553285020066]
SuperSVGは、高速かつ高精度な画像ベクトル化を実現するスーパーピクセルベースのベクトル化モデルである。
本稿では,2段階の自己学習フレームワークを提案する。そこでは,粗い段階モデルを用いて主構造を再構築し,細部を充実させるために改良段階モデルを用いる。
再現精度と推定時間の観点から, 最先端手法と比較して, 提案手法の優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-06-14T07:43:23Z) - SVGDreamer: Text Guided SVG Generation with Diffusion Model [31.76771064173087]
SVGDreamerと呼ばれる新しいテキスト誘導ベクトルグラフィックス合成法を提案する。
SIVEプロセスは、前景オブジェクトと背景への合成の分解を可能にする。
VPSDアプローチは、形状の平滑化、彩度の過飽和、多様性の制限、収束の遅い問題に対処する。
論文 参考訳(メタデータ) (2023-12-27T08:50:01Z) - StarVector: Generating Scalable Vector Graphics Code from Images and Text [15.32194071443065]
本稿では,SVG生成のための多モーダル大言語モデルであるStarを紹介する。
画像のセマンティクスを理解し、SVGプリミティブをコンパクトで正確な出力に使用することにより、画像ベクトル化を行う。
ベクトル化タスク間の一般化を可能にする2Mサンプルの多種多様なデータセットであるStarStackをトレーニングする。
論文 参考訳(メタデータ) (2023-12-17T08:07:32Z) - VectorFusion: Text-to-SVG by Abstracting Pixel-Based Diffusion Models [82.93345261434943]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,SVG-exportable vector graphicsを生成する。
近年のテキスト・ツー・3D研究に触発されて,Score Distillation Smpling を用いたキャプションと整合したSVGを学習した。
実験では、以前の作品よりも品質が向上し、ピクセルアートやスケッチを含む様々なスタイルが示されている。
論文 参考訳(メタデータ) (2022-11-21T10:04:27Z) - Towards Layer-wise Image Vectorization [57.26058135389497]
画像をSVGに変換し,画像トポロジを同時に維持するためのレイヤワイズ画像ベクトル化(LIVE)を提案する。
Liveは、人間の視点にセマンティックに整合した階層構造を持つコンパクトなフォームを生成する。
Liveは、デザイナの両方のために編集可能なSVGを起動し、他のアプリケーションで使用することができる。
論文 参考訳(メタデータ) (2022-06-09T17:55:02Z) - SVG-Net: An SVG-based Trajectory Prediction Model [67.68864911674308]
シーン内の車両の動きを予想することは、安全な自動運転システムにとって重要な問題である。
この目的のために、シーンのインフラの理解は、しばしば将来の軌跡を予測する主要な手がかりである。
提案手法のほとんどが逆逆変換方式のシーンを表現しており、近年のアプローチではカスタムベクトル化方式が採用されている。
論文 参考訳(メタデータ) (2021-10-07T18:00:08Z) - DeepSVG: A Hierarchical Generative Network for Vector Graphics Animation [217.86315551526235]
本稿では,複雑なSVGアイコンの生成と操作のために,DeepSVGと呼ばれる新しい階層型生成ネットワークを提案する。
我々のアーキテクチャは、その形状自体をエンコードする低レベルのコマンドから、効果的に高レベルの形状を分離します。
我々のネットワークは、多様なベクトルグラフィックスを正確に再構築し、強力なアニメーションツールとして機能することを実証する。
論文 参考訳(メタデータ) (2020-07-22T09:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。