論文の概要: Few-shot Font Generation with Localized Style Representations and
Factorization
- arxiv url: http://arxiv.org/abs/2009.11042v2
- Date: Wed, 16 Dec 2020 07:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:20:15.692097
- Title: Few-shot Font Generation with Localized Style Representations and
Factorization
- Title(参考訳): 局所化スタイル表現とファクトリゼーションを用いたファインショットフォント生成
- Authors: Song Park, Sanghyuk Chun, Junbum Cha, Bado Lee, Hyunjung Shim
- Abstract要約: ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習し,新しいフォント生成手法を提案する。
提案手法は,8つの基準グリフ画像しか持たない少数のフォント生成結果が,他の最先端のフォントよりも著しく優れていることを示す。
- 参考スコア(独自算出の注目度): 23.781619323447003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic few-shot font generation is a practical and widely studied problem
because manual designs are expensive and sensitive to the expertise of
designers. Existing few-shot font generation methods aim to learn to
disentangle the style and content element from a few reference glyphs, and
mainly focus on a universal style representation for each font style. However,
such approach limits the model in representing diverse local styles, and thus
makes it unsuitable to the most complicated letter system, e.g., Chinese, whose
characters consist of a varying number of components (often called "radical")
with a highly complex structure. In this paper, we propose a novel font
generation method by learning localized styles, namely component-wise style
representations, instead of universal styles. The proposed style
representations enable us to synthesize complex local details in text designs.
However, learning component-wise styles solely from reference glyphs is
infeasible in the few-shot font generation scenario, when a target script has a
large number of components, e.g., over 200 for Chinese. To reduce the number of
reference glyphs, we simplify component-wise styles by a product of component
factor and style factor, inspired by low-rank matrix factorization. Thanks to
the combination of strong representation and a compact factorization strategy,
our method shows remarkably better few-shot font generation results (with only
8 reference glyph images) than other state-of-the-arts, without utilizing
strong locality supervision, e.g., location of each component, skeleton, or
strokes. The source code is available at https://github.com/clovaai/lffont.
- Abstract(参考訳): 手動デザインはデザイナーの専門知識に高価で敏感であるため、自動的少数ショットフォント生成は実用的で広く研究されている問題である。
既存の数発のフォント生成方法は、いくつかの参照グリフからスタイルとコンテンツ要素を切り離すことを目標とし、主に各フォントスタイルの普遍的なスタイル表現に焦点を当てている。
しかし、このようなアプローチは、様々な地方スタイルを表すモデルに制限があり、例えば中国語のような、非常に複雑な構造を持つ様々な構成要素(しばしば「ラディカル」と呼ばれる)からなる最も複雑な文字体系には適さない。
本稿では,ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習する新しいフォント生成手法を提案する。
提案するスタイル表現により,テキスト設計における複雑な局所的詳細を合成できる。
しかし、参照グリフのみからコンポーネントのスタイルを学ぶことは、ターゲットスクリプトが中国語で200以上のコンポーネントを持つ場合、わずかなフォント生成シナリオでは実現不可能である。
参照グリフ数を減らすために,低ランク行列因子化に触発されたコンポーネント因子とスタイル因子の積によるコンポーネント毎のスタイルを単純化する。
強い表現とコンパクトな因子化戦略を組み合わせることで,各コンポーネントの位置,骨格,ストロークなど,強い局所性管理を使わずに,他の最先端技術よりも極めて優れた少数ショットフォント生成結果(参照グリフ画像が8つしかない)を示す。
ソースコードはhttps://github.com/clovaai/lffontで入手できる。
関連論文リスト
- Few shot font generation via transferring similarity guided global style
and quantization local style [11.817299400850176]
文字類似性に基づくグローバル特徴とスタイル化コンポーネントレベルの表現からスタイルを集約する新しいフォント生成手法を提案する。
我々のAFFG法は、コンポーネントレベルの表現の完全なセットを得ることができ、また、グローバルなグリフ特性を制御できる。
論文 参考訳(メタデータ) (2023-09-02T05:05:40Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - XMP-Font: Self-Supervised Cross-Modality Pre-training for Few-Shot Font
Generation [13.569449355929574]
本稿では,自己教師型クロスモダリティ事前学習戦略とクロスモダリティトランスフォーマーを用いたエンコーダを提案する。
エンコーダは、グリフ画像と対応するストロークラベルとを共同で条件付けする。
1つの参照グリフしか必要とせず、2番目のベストよりも28%低い数ショットフォント生成タスクにおいて、悪いケースの最低率を達成する。
論文 参考訳(メタデータ) (2022-04-11T13:34:40Z) - Few-shot Font Generation with Weakly Supervised Localized
Representations [17.97183447033118]
ユニバーサルなスタイルではなく,局所的なスタイル,すなわちコンポーネントワイドなスタイル表現を学習する新しいフォント生成手法を提案する。
提案手法は,他の最先端手法よりも極めて優れたフォント生成結果(参照グリフが8つしかない)を示す。
論文 参考訳(メタデータ) (2021-12-22T14:26:53Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Multiple Heads are Better than One: Few-shot Font Generation with
Multiple Localized Experts [17.97183447033118]
マルチローカライズドエキスパートFew-shot Font Generation Network (MX-Font) という新しいFFG手法を提案する。
mx-fontは、コンポーネントラベルではなく、複数の専門家によって自動的に異なるローカル概念を表現する複数のスタイル特徴を抽出する。
私たちの実験では、MX-Fontは、中国世代およびクロスリンガル、例えば中国語から韓国語、世代における以前の最先端のFFG法を上回っています。
論文 参考訳(メタデータ) (2021-04-02T05:20:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。