論文の概要: Multiple Heads are Better than One: Few-shot Font Generation with
Multiple Localized Experts
- arxiv url: http://arxiv.org/abs/2104.00887v1
- Date: Fri, 2 Apr 2021 05:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:51:26.749721
- Title: Multiple Heads are Better than One: Few-shot Font Generation with
Multiple Localized Experts
- Title(参考訳): 複数の頭部が1つより優れている:複数の局所化エキスパートによるFew-shot Font生成
- Authors: Song Park, Sanghyuk Chun, Junbum Cha, Bado Lee, Hyunjung Shim
- Abstract要約: マルチローカライズドエキスパートFew-shot Font Generation Network (MX-Font) という新しいFFG手法を提案する。
mx-fontは、コンポーネントラベルではなく、複数の専門家によって自動的に異なるローカル概念を表現する複数のスタイル特徴を抽出する。
私たちの実験では、MX-Fontは、中国世代およびクロスリンガル、例えば中国語から韓国語、世代における以前の最先端のFFG法を上回っています。
- 参考スコア(独自算出の注目度): 17.97183447033118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A few-shot font generation (FFG) method has to satisfy two objectives: the
generated images should preserve the underlying global structure of the target
character and present the diverse local reference style. Existing FFG methods
aim to disentangle content and style either by extracting a universal
representation style or extracting multiple component-wise style
representations. However, previous methods either fail to capture diverse local
styles or cannot be generalized to a character with unseen components, e.g.,
unseen language systems. To mitigate the issues, we propose a novel FFG method,
named Multiple Localized Experts Few-shot Font Generation Network (MX-Font).
MX-Font extracts multiple style features not explicitly conditioned on
component labels, but automatically by multiple experts to represent different
local concepts, e.g., left-side sub-glyph. Owing to the multiple experts,
MX-Font can capture diverse local concepts and show the generalizability to
unseen languages. During training, we utilize component labels as weak
supervision to guide each expert to be specialized for different local
concepts. We formulate the component assign problem to each expert as the graph
matching problem, and solve it by the Hungarian algorithm. We also employ the
independence loss and the content-style adversarial loss to impose the
content-style disentanglement. In our experiments, MX-Font outperforms previous
state-of-the-art FFG methods in the Chinese generation and cross-lingual, e.g.,
Chinese to Korean, generation. Source code is available at
https://github.com/clovaai/mxfont.
- Abstract(参考訳): 複数ショットフォント生成(FFG)法は2つの目的を満たす必要がある: 生成した画像は、対象文字のグローバルな構造を保存し、多様な局所参照スタイルを示す。
既存のffgメソッドは、普遍表現スタイルを抽出するか、複数のコンポーネント毎のスタイル表現を抽出することによって、コンテンツとスタイルを分離することを目指している。
しかし、以前の手法では様々なローカルスタイルをキャプチャできなかったり、未知のコンポーネントを持つ文字に一般化できなかったりした。
この問題を軽減するために,複数局所化エキスパートFew-shot Font Generation Network (MX-Font) という新しいFFG手法を提案する。
MX-Fontはコンポーネントラベルに明示的に規定されていない複数のスタイルの特徴を抽出し、複数の専門家によって自動的に異なるローカル概念、例えば左サイドのサブグリフを表す。
複数の専門家により、mx-fontは様々な局所的な概念を捉え、見当たらない言語への一般化を示すことができる。
トレーニング中、各専門家が異なるローカル概念に特化するようガイドするために、コンポーネントラベルを弱い監督として使用します。
グラフマッチング問題として,各専門家にコンポーネント割り当て問題を定式化し,ハンガリーアルゴリズムを用いて解く。
また,コンテンツの独立性の喪失と,コンテンツスタイルの敵意の喪失を,コンテンツスタイルの絡み合いを強要する。
我々の実験では、MX-Fontは、中国の世代や、中国語から韓国語への異言語間のFFG手法よりも優れています。
ソースコードはhttps://github.com/clovaai/mxfontで入手できる。
関連論文リスト
- Few shot font generation via transferring similarity guided global style
and quantization local style [11.817299400850176]
文字類似性に基づくグローバル特徴とスタイル化コンポーネントレベルの表現からスタイルを集約する新しいフォント生成手法を提案する。
我々のAFFG法は、コンポーネントレベルの表現の完全なセットを得ることができ、また、グローバルなグリフ特性を制御できる。
論文 参考訳(メタデータ) (2023-09-02T05:05:40Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - Few-shot Font Generation with Weakly Supervised Localized
Representations [17.97183447033118]
ユニバーサルなスタイルではなく,局所的なスタイル,すなわちコンポーネントワイドなスタイル表現を学習する新しいフォント生成手法を提案する。
提案手法は,他の最先端手法よりも極めて優れたフォント生成結果(参照グリフが8つしかない)を示す。
論文 参考訳(メタデータ) (2021-12-22T14:26:53Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Few-shot Font Generation with Localized Style Representations and
Factorization [23.781619323447003]
ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習し,新しいフォント生成手法を提案する。
提案手法は,8つの基準グリフ画像しか持たない少数のフォント生成結果が,他の最先端のフォントよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T10:33:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。