論文の概要: Efficient and Scalable Chinese Vector Font Generation via Component Composition
- arxiv url: http://arxiv.org/abs/2404.06779v1
- Date: Wed, 10 Apr 2024 06:39:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 15:19:53.033968
- Title: Efficient and Scalable Chinese Vector Font Generation via Component Composition
- Title(参考訳): 成分組成による効率良くスケーラブルな中国ベクトルフォント生成
- Authors: Jinyu Song, Weitao You, Shuhui Shi, Shuxuan Guo, Lingyun Sun, Wei Wang,
- Abstract要約: コンポーネント合成による中国初の効率的かつスケーラブルなベクトルフォント生成手法を提案する。
空間変換器ネットワーク(STN)とフォント特性に合わせた多重損失に基づくフレームワークを提案する。
実験により,本手法は最先端のベクトルフォント生成手法をはるかに上回っていることが示された。
- 参考スコア(独自算出の注目度): 13.499566877003408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chinese vector font generation is challenging due to the complex structure and huge amount of Chinese characters. Recent advances remain limited to generating a small set of characters with simple structure. In this work, we first observe that most Chinese characters can be disassembled into frequently-reused components. Therefore, we introduce the first efficient and scalable Chinese vector font generation approach via component composition, allowing generating numerous vector characters from a small set of components. To achieve this, we collect a large-scale dataset that contains over \textit{90K} Chinese characters with their components and layout information. Upon the dataset, we propose a simple yet effective framework based on spatial transformer networks (STN) and multiple losses tailored to font characteristics to learn the affine transformation of the components, which can be directly applied to the B\'ezier curves, resulting in Chinese characters in vector format. Our qualitative and quantitative experiments have demonstrated that our method significantly surpasses the state-of-the-art vector font generation methods in generating large-scale complex Chinese characters in both font generation and zero-shot font extension.
- Abstract(参考訳): 複雑な構造と大量の漢字のため、中国語のベクトルフォント生成は困難である。
最近の進歩は、単純な構造を持つ小さな文字セットを生成することに限定されている。
本研究はまず,ほとんどの漢字が頻繁に使用される成分に分解できることを観察する。
そこで,本研究では,コンポーネント構成による中国初の効率的かつスケーラブルなベクトルフォント生成手法を導入し,少数のコンポーネントから多数のベクトル文字を生成する。
これを実現するために、我々は、コンポーネントとレイアウト情報を含むtextit{90K} 以上の漢字を含む大規模なデータセットを収集する。
このデータセットでは,空間変換器ネットワーク(STN)とフォント特性に適合した複数の損失に基づいて,B'ezier曲線に直接適用可能なコンポーネントのアフィン変換学習を行う。
定性的かつ定量的な実験により,フォント生成とゼロショットフォント拡張の両方で大規模に複雑な漢字を生成する際に,我々の手法が最先端のベクトルフォント生成手法をはるかに上回っていることが示された。
関連論文リスト
- VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Learning Generative Structure Prior for Blind Text Image
Super-resolution [153.05759524358467]
我々は、キャラクター構造にもっと焦点をあてた小説を提示する。
StyleGANの生成空間を制限するため、各文字の離散的な特徴をコードブックに格納する。
提案した構造は, 従来より強い文字特異的指導を行い, 指定された文字の忠実で正確なストロークを復元する。
論文 参考訳(メタデータ) (2023-03-26T13:54:28Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - SVG Vector Font Generation for Chinese Characters with Transformer [42.46279506573065]
本稿では,トランスフォーマーとロス関数を併用した新しいネットワークアーキテクチャを提案する。
データセットの範囲はサンセリフ族に限られていたが, 初めて中国語のベクトルフォントを生成できた。
論文 参考訳(メタデータ) (2022-06-21T12:51:19Z) - ZiGAN: Fine-grained Chinese Calligraphy Font Generation via a Few-shot
Style Transfer Approach [7.318027179922774]
ZiGANは、強力なエンドツーエンドの漢字フォント生成フレームワークである。
微粒なターゲットスタイルの文字を生成するために手動操作や冗長な前処理を一切必要としない。
提案手法は,数発の漢字スタイル転送における最先端の一般化能力を有する。
論文 参考訳(メタデータ) (2021-08-08T09:50:20Z) - MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named
Entity Recognition [21.190288516462704]
本稿では,中国語NERの性能向上を目的とした,MECT(Multi-metadata Embedding based Cross-Transformer)を提案する。
具体的には、2ストリームのトランスフォーマーにマルチメタメタを埋め込み、漢字の特徴とラジカルレベルの埋め込みを統合する。
漢字の構造的特徴により、MECTはNERのための漢字の意味情報をよりよく捉えることができる。
論文 参考訳(メタデータ) (2021-07-12T13:39:06Z) - GlyphCRM: Bidirectional Encoder Representation for Chinese Character
with its Glyph [31.723483415041347]
以前は、漢字のグリフには豊かな意味情報が含まれていることが示唆されていた。
我々は,Glyph CRMという名前の中国語事前学習表現モデルを提案する。
IDベースの文字埋め込みを放棄するが、シーケンシャルな文字画像のみをベースとしている。
論文 参考訳(メタデータ) (2021-07-01T12:14:05Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese
Pre-trained Language Models [62.41139712595334]
中国語のための新しい事前学習パラダイムであるLattice-BERTを提案する。
文中の文字や単語から格子グラフを構築し、これらすべてのテキスト単位をトランスフォーマーに供給します。
本モデルが12層設定で平均1.5%の増加をもたらすことを示した。
論文 参考訳(メタデータ) (2021-04-15T02:36:49Z) - Few-shot Font Generation with Localized Style Representations and
Factorization [23.781619323447003]
ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習し,新しいフォント生成手法を提案する。
提案手法は,8つの基準グリフ画像しか持たない少数のフォント生成結果が,他の最先端のフォントよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T10:33:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。