論文の概要: VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization
- arxiv url: http://arxiv.org/abs/2308.14018v1
- Date: Sun, 27 Aug 2023 06:32:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 17:37:32.346372
- Title: VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization
- Title(参考訳): VQ-Font:構造認識の強化と量子化によるFew-Shot Font生成
- Authors: Mingshuai Yao, Yabo Zhang, Xianhui Lin, Xiaoming Li, Wangmeng Zuo
- Abstract要約: 本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
- 参考スコア(独自算出の注目度): 52.870638830417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot font generation is challenging, as it needs to capture the
fine-grained stroke styles from a limited set of reference glyphs, and then
transfer to other characters, which are expected to have similar styles.
However, due to the diversity and complexity of Chinese font styles, the
synthesized glyphs of existing methods usually exhibit visible artifacts, such
as missing details and distorted strokes. In this paper, we propose a
VQGAN-based framework (i.e., VQ-Font) to enhance glyph fidelity through token
prior refinement and structure-aware enhancement. Specifically, we pre-train a
VQGAN to encapsulate font token prior within a codebook. Subsequently, VQ-Font
refines the synthesized glyphs with the codebook to eliminate the domain gap
between synthesized and real-world strokes. Furthermore, our VQ-Font leverages
the inherent design of Chinese characters, where structure components such as
radicals and character components are combined in specific arrangements, to
recalibrate fine-grained styles based on references. This process improves the
matching and fusion of styles at the structure level. Both modules collaborate
to enhance the fidelity of the generated fonts. Experiments on a collected font
dataset show that our VQ-Font outperforms the competing methods both
quantitatively and qualitatively, especially in generating challenging styles.
- Abstract(参考訳): 限定された参照グリフから細粒度のストロークスタイルをキャプチャし、類似のスタイルが期待される他の文字に転送する必要があるため、数少ないフォント生成は困難である。
しかし、中国のフォントスタイルが多様で複雑であるため、既存の方法の合成グリフは通常、細部や歪んだストロークなどの目に見えるアーティファクトを表示する。
本稿では,トークンの事前改良と構造認識の強化により,グリフ忠実度を高めるためのvqganベースのフレームワーク(すなわちvq-font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。
その後、VQ-Fontは合成グリフをコードブックで洗練し、合成されたストロークと現実世界のストロークの領域ギャップをなくす。
さらに,我々のVQ-Fontは中国語の文字の固有設計を活用し,ラジカルや文字成分などの構造成分を特定の配列で組み合わせることで,参照に基づくきめ細かいスタイルの再検討を行う。
このプロセスは、構造レベルでのスタイルマッチングと融合を改善します。
どちらのモジュールも協調して、生成されたフォントの忠実性を高める。
収集されたフォントデータセットにおける実験により、vq-fontは、特に挑戦的なスタイルの生成において、定量的かつ質的に競合する手法よりも優れています。
関連論文リスト
- Decoupling Layout from Glyph in Online Chinese Handwriting Generation [6.566541829858544]
テキスト行レイアウト生成器とスタイル化フォント合成器を開発した。
レイアウトジェネレータは、テキスト内容と提供されたスタイル参照に基づいて、コンテキスト内学習を行い、各グリフに対する位置を自己回帰的に生成する。
文字埋め込み辞書、マルチスケールの書体スタイルエンコーダ、及び1DのU-Netベースの拡散デノイザからなるフォントシンセサイザは、所定のスタイル参照から抽出された書体スタイルを模倣しつつ、その位置に各フォントを生成する。
論文 参考訳(メタデータ) (2024-10-03T08:46:17Z) - DeepCalliFont: Few-shot Chinese Calligraphy Font Synthesis by
Integrating Dual-modality Generative Models [20.76773399161289]
特に中国語のフォントのフォント生成は困難で、進行中の課題である。
本稿では,2つのモダリティ生成モデルを統合することで,数ショットの漢字フォント合成のための新しいモデルDeepCalliFontを提案する。
論文 参考訳(メタデータ) (2023-12-16T04:23:12Z) - Few shot font generation via transferring similarity guided global style
and quantization local style [11.817299400850176]
文字類似性に基づくグローバル特徴とスタイル化コンポーネントレベルの表現からスタイルを集約する新しいフォント生成手法を提案する。
我々のAFFG法は、コンポーネントレベルの表現の完全なセットを得ることができ、また、グローバルなグリフ特性を制御できる。
論文 参考訳(メタデータ) (2023-09-02T05:05:40Z) - Learning Generative Structure Prior for Blind Text Image
Super-resolution [153.05759524358467]
我々は、キャラクター構造にもっと焦点をあてた小説を提示する。
StyleGANの生成空間を制限するため、各文字の離散的な特徴をコードブックに格納する。
提案した構造は, 従来より強い文字特異的指導を行い, 指定された文字の忠実で正確なストロークを復元する。
論文 参考訳(メタデータ) (2023-03-26T13:54:28Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - XMP-Font: Self-Supervised Cross-Modality Pre-training for Few-Shot Font
Generation [13.569449355929574]
本稿では,自己教師型クロスモダリティ事前学習戦略とクロスモダリティトランスフォーマーを用いたエンコーダを提案する。
エンコーダは、グリフ画像と対応するストロークラベルとを共同で条件付けする。
1つの参照グリフしか必要とせず、2番目のベストよりも28%低い数ショットフォント生成タスクにおいて、悪いケースの最低率を達成する。
論文 参考訳(メタデータ) (2022-04-11T13:34:40Z) - Few-shot Font Generation with Localized Style Representations and
Factorization [23.781619323447003]
ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習し,新しいフォント生成手法を提案する。
提案手法は,8つの基準グリフ画像しか持たない少数のフォント生成結果が,他の最先端のフォントよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T10:33:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。