論文の概要: Stroke Modeling Enables Vectorized Character Generation with Large Vectorized Glyph Model
- arxiv url: http://arxiv.org/abs/2511.11119v1
- Date: Fri, 14 Nov 2025 09:48:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.526462
- Title: Stroke Modeling Enables Vectorized Character Generation with Large Vectorized Glyph Model
- Title(参考訳): 大規模ベクトル化グリフモデルによるベクトル化文字生成を可能にするストロークモデリング
- Authors: Xinyue Zhang, Haolong Li, Jiawei Ma, Chen Ye,
- Abstract要約: 我々は,次のストロークを予測して,ベクトル化された中国のグリフを生成するために設計された,LVGM(Large Vectorized Glyph Model)を提案する。
限られたストロークで、完全な文字、意味的にエレガントな単語、さらにはベクトル化された形で見えない詩を生成できる。
- 参考スコア(独自算出の注目度): 20.240367070645963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vectorized glyphs are widely used in poster design, network animation, art display, and various other fields due to their scalability and flexibility. In typography, they are often seen as special sequences composed of ordered strokes. This concept extends to the token sequence prediction abilities of large language models (LLMs), enabling vectorized character generation through stroke modeling. In this paper, we propose a novel Large Vectorized Glyph Model (LVGM) designed to generate vectorized Chinese glyphs by predicting the next stroke. Initially, we encode strokes into discrete latent variables called stroke embeddings. Subsequently, we train our LVGM via fine-tuning DeepSeek LLM by predicting the next stroke embedding. With limited strokes given, it can generate complete characters, semantically elegant words, and even unseen verses in vectorized form. Moreover, we release a new large-scale Chinese SVG dataset containing 907,267 samples based on strokes for dynamically vectorized glyph generation. Experimental results show that our model has scaling behaviors on data scales. Our generated vectorized glyphs have been validated by experts and relevant individuals.
- Abstract(参考訳): ベクトル化グリフは、そのスケーラビリティと柔軟性のために、ポスターデザイン、ネットワークアニメーション、アートディスプレイなど様々な分野で広く使われている。
タイポグラフィーでは、順序付けられたストロークからなる特別なシーケンスと見なされることが多い。
この概念は、大きな言語モデル(LLM)のトークンシーケンス予測能力にまで拡張され、ストロークモデリングによるベクトル化文字生成を可能にした。
本稿では,次のストロークを予測して,ベクトル化された中国のグリフを生成するために設計された,LVGM(Large Vectorized Glyph Model)を提案する。
最初は、ストロークをストローク埋め込みと呼ばれる離散潜在変数にエンコードする。
次に、次のストローク埋め込みを予測することによって、細調整のDeepSeek LLMを用いてLVGMをトレーニングする。
限られたストロークで、完全な文字、意味的にエレガントな単語、さらにはベクトル化された形で見えない詩を生成できる。
さらに, 動的ベクトル化グリフ生成のためのストロークに基づいて, 907,267個のサンプルを含む中国の大規模SVGデータセットを新たにリリースした。
実験結果から,本モデルはデータスケールにおけるスケーリングの挙動を示す。
我々の生成したベクトル化グリフは、専門家や関連する個人によって検証されている。
関連論文リスト
- SwiftSketch: A Diffusion Model for Image-to-Vector Sketch Generation [57.47730473674261]
我々は,画像条件付きベクトルスケッチ生成モデルであるSwiftSketchを紹介した。
SwiftSketchは、ガウス分布からサンプリングされたストローク制御ポイントを段階的に復調することによって動作する。
ControlSketchは、深度認識制御ネットを通じて正確な空間制御を組み込むことで、SDSベースの技術を強化する方法である。
論文 参考訳(メタデータ) (2025-02-12T18:57:12Z) - NeuralSVG: An Implicit Representation for Text-to-Vector Generation [54.4153300455889]
本稿では,テキストプロンプトからベクトルグラフィックスを生成する暗黙的なニューラル表現であるNeuralSVGを提案する。
生成したSVGの層構造を促進するために,ドロップアウトに基づく正規化手法を導入する。
ニューラルSVGは、構造化された柔軟なSVGを生成する際に、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-01-07T18:50:06Z) - Vector Grimoire: Codebook-based Shape Generation under Raster Image Supervision [20.325246638505714]
本稿では,GRIMOIREというテキスト誘導型生成モデルを紹介し,画像をベクトル形状に再構成して離散コードブックにマッピングする方法を提案する。
データから直接の監視を必要とする既存のモデルとは異なり、GRIMOIREはベクトル生成モデリングをはるかに多くのデータに開放するイメージ監督のみを使用して学習する。
論文 参考訳(メタデータ) (2024-10-08T12:41:31Z) - StrokeNUWA: Tokenizing Strokes for Vector Graphic Synthesis [112.25071764647683]
StrokeNUWAはベクターグラフィックスにおけるより良い視覚表現'ストロークトークン'を探求する先駆的な研究である。
ストロークトークンを備えたStrokeNUWAは、従来のLCMベースの最適化ベースのメソッドを大幅に上回ることができる。
StrokeNUWAは、SVGコード圧縮比が6.9%の従来の手法よりも94倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2024-01-30T15:20:26Z) - VISIT: Visualizing and Interpreting the Semantic Information Flow of
Transformers [45.42482446288144]
近年の解釈可能性の進歩は、トランスフォーマーベース言語モデルの重みと隠れ状態を語彙に投影できることを示唆している。
LMアテンションヘッドとメモリ値、モデルが与えられた入力を処理しながら動的に生成し、リコールするベクトルについて検討する。
対話型フローグラフとして生成事前学習変換器(GPT)の前方通過を可視化するツールを作成する。
論文 参考訳(メタデータ) (2023-05-22T19:04:56Z) - VecFontSDF: Learning to Reconstruct and Synthesize High-quality Vector Fonts via Signed Distance Functions [14.166708010969502]
本稿では,高品質なベクトルフォントの再構成と合成を行うために,エンドツーエンドのトレーニング可能なVecFontSDFを提案する。
提案したSDFに基づく暗黙的形状表現に基づいて、VecFontSDFは、各グリフを複数のパラボラ曲線で囲まれた形状プリミティブとしてモデル化することを学ぶ。
論文 参考訳(メタデータ) (2023-03-22T16:14:39Z) - DeepVecFont: Synthesizing High-quality Vector Fonts via Dual-modality
Learning [21.123297001902177]
本稿では,ベクトルグリフを生成するための新しい手法であるDeepVecFontを提案する。
まず、フォントのイメージ・アスペクトとシーケンス・アスペクトの両特徴を利用してベクトルグリフを合成する双対モダリティ学習戦略を設計する。
第2に、非構造化データ(例えばベクトルグリフ)をランダムにサンプリングして、生成した構造化データのガイダンスの下でさらに洗練された最適なデータを得る、新しい生成パラダイムを提供する。
論文 参考訳(メタデータ) (2021-10-13T12:57:19Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Cloud2Curve: Generation and Vectorization of Parametric Sketches [109.02932608241227]
スケーラブルな高分解能ベクトルスケッチ生成モデルであるCloud2Curveを提案する。
我々はQuick, Draw!でモデルの生成とベクトル化能力を評価する。
そしてKMNISTデータセット。
論文 参考訳(メタデータ) (2021-03-29T12:09:42Z) - Word Shape Matters: Robust Machine Translation with Visual Embedding [78.96234298075389]
文字レベルNLPモデルの入力シンボルを新たに符号化する。
文字が印刷されたときの画像を通して各文字の形状をエンコードする。
我々はこの新たな戦略を視覚的埋め込みと呼び、NLPモデルの堅牢性を向上させることが期待されている。
論文 参考訳(メタデータ) (2020-10-20T04:08:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。