論文の概要: Few-shot Font Generation with Weakly Supervised Localized
Representations
- arxiv url: http://arxiv.org/abs/2112.11895v1
- Date: Wed, 22 Dec 2021 14:26:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 15:24:15.112219
- Title: Few-shot Font Generation with Weakly Supervised Localized
Representations
- Title(参考訳): 弱教師付き局所表現を用いた少数ショットフォント生成
- Authors: Song Park, Sanghyuk Chun, Junbum Cha, Bado Lee, Hyunjung Shim
- Abstract要約: ユニバーサルなスタイルではなく,局所的なスタイル,すなわちコンポーネントワイドなスタイル表現を学習する新しいフォント生成手法を提案する。
提案手法は,他の最先端手法よりも極めて優れたフォント生成結果(参照グリフが8つしかない)を示す。
- 参考スコア(独自算出の注目度): 17.97183447033118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic few-shot font generation aims to solve a well-defined, real-world
problem because manual font designs are expensive and sensitive to the
expertise of designers. Existing methods learn to disentangle style and content
elements by developing a universal style representation for each font style.
However, this approach limits the model in representing diverse local styles,
because it is unsuitable for complicated letter systems, for example, Chinese,
whose characters consist of a varying number of components (often called
"radical") -- with a highly complex structure. In this paper, we propose a
novel font generation method that learns localized styles, namely
component-wise style representations, instead of universal styles. The proposed
style representations enable the synthesis of complex local details in text
designs. However, learning component-wise styles solely from a few reference
glyphs is infeasible when a target script has a large number of components, for
example, over 200 for Chinese. To reduce the number of required reference
glyphs, we represent component-wise styles by a product of component and style
factors, inspired by low-rank matrix factorization. Owing to the combination of
strong representation and a compact factorization strategy, our method shows
remarkably better few-shot font generation results (with only eight reference
glyphs) than other state-of-the-art methods. Moreover, strong locality
supervision, for example, location of each component, skeleton, or strokes, was
not utilized. The source code is available at https://github.com/clovaai/lffont
and https://github.com/clovaai/fewshot-font-generation.
- Abstract(参考訳): フォントの自動生成は、手動フォントのデザインが高価でデザイナーの専門知識に敏感であるため、明確に定義された現実世界の問題を解決することを目的としている。
既存の方法は、各フォントスタイルの普遍的なスタイル表現を開発することにより、スタイルとコンテンツ要素のアンタングルを学習する。
しかし、このアプローチは、複雑な文字体系、例えば、文字が様々な要素(しばしば「ラディカル」と呼ばれる)で構成される中国語には不向きであり、非常に複雑な構造を持つため、多様なローカルスタイルを表現するモデルを制限する。
本稿では,ユニバーサルスタイルではなく,コンポーネント毎の表現というローカライズされたスタイルを学習する新しいフォント生成手法を提案する。
提案したスタイル表現は、テキスト設計における複雑なローカル詳細の合成を可能にする。
しかし、いくつかの参照グリフのみからコンポーネントのスタイルを学ぶことは、ターゲットスクリプトが中国語で200以上のコンポーネントを持つ場合、実現不可能である。
要求される参照グリフの数を減らすため、低ランク行列因子化に触発されたコンポーネントとスタイル因子の積によってコンポーネント毎のスタイルを表現する。
強い表現とコンパクトな因子化戦略の組み合わせにより,本手法は,他の最先端手法よりも極めて優れた少数ショットフォント生成結果(参照グリフが8つしかない)を示す。
さらに、例えば、各コンポーネント、骨格、ストロークの位置などの強い局所性監視は利用されなかった。
ソースコードはhttps://github.com/clovaai/lffontとhttps://github.com/clovaai/fewshot-font-generationで入手できる。
関連論文リスト
- FontDiffuser: One-Shot Font Generation via Denoising Diffusion with
Multi-Scale Content Aggregation and Style Contrastive Learning [45.696909070215476]
FontDiffuserは拡散に基づく画像から画像へのワンショットフォント生成手法である。
従来の方法と比較して、複雑な文字と大きなスタイルの変更を一貫して排他的に引き継いでいる。
論文 参考訳(メタデータ) (2023-12-19T13:23:20Z) - Few shot font generation via transferring similarity guided global style
and quantization local style [11.817299400850176]
文字類似性に基づくグローバル特徴とスタイル化コンポーネントレベルの表現からスタイルを集約する新しいフォント生成手法を提案する。
我々のAFFG法は、コンポーネントレベルの表現の完全なセットを得ることができ、また、グローバルなグリフ特性を制御できる。
論文 参考訳(メタデータ) (2023-09-02T05:05:40Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - XMP-Font: Self-Supervised Cross-Modality Pre-training for Few-Shot Font
Generation [13.569449355929574]
本稿では,自己教師型クロスモダリティ事前学習戦略とクロスモダリティトランスフォーマーを用いたエンコーダを提案する。
エンコーダは、グリフ画像と対応するストロークラベルとを共同で条件付けする。
1つの参照グリフしか必要とせず、2番目のベストよりも28%低い数ショットフォント生成タスクにおいて、悪いケースの最低率を達成する。
論文 参考訳(メタデータ) (2022-04-11T13:34:40Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Few-Shot Font Generation with Deep Metric Learning [33.12829580813688]
提案するフレームワークは、スタイルエンコーダにディープメトリック学習を導入している。
白黒フォントと形状識別フォントのデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-11-04T10:12:10Z) - Few-shot Font Generation with Localized Style Representations and
Factorization [23.781619323447003]
ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習し,新しいフォント生成手法を提案する。
提案手法は,8つの基準グリフ画像しか持たない少数のフォント生成結果が,他の最先端のフォントよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T10:33:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。