論文の概要: CF-Font: Content Fusion for Few-shot Font Generation
- arxiv url: http://arxiv.org/abs/2303.14017v2
- Date: Tue, 4 Apr 2023 10:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 17:31:41.291545
- Title: CF-Font: Content Fusion for Few-shot Font Generation
- Title(参考訳): CF-Font:Few-shot Font生成のためのコンテンツ融合
- Authors: Chi Wang, Min Zhou, Tiezheng Ge, Yuning Jiang, Hujun Bao, Weiwei Xu
- Abstract要約: 本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
- 参考スコア(独自算出の注目度): 48.04631270547216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Content and style disentanglement is an effective way to achieve few-shot
font generation. It allows to transfer the style of the font image in a source
domain to the style defined with a few reference images in a target domain.
However, the content feature extracted using a representative font might not be
optimal. In light of this, we propose a content fusion module (CFM) to project
the content feature into a linear space defined by the content features of
basis fonts, which can take the variation of content features caused by
different fonts into consideration. Our method also allows to optimize the
style representation vector of reference images through a lightweight iterative
style-vector refinement (ISR) strategy. Moreover, we treat the 1D projection of
a character image as a probability distribution and leverage the distance
between two distributions as the reconstruction loss (namely projected
character loss, PCL). Compared to L2 or L1 reconstruction loss, the
distribution distance pays more attention to the global shape of characters. We
have evaluated our method on a dataset of 300 fonts with 6.5k characters each.
Experimental results verify that our method outperforms existing
state-of-the-art few-shot font generation methods by a large margin. The source
code can be found at https://github.com/wangchi95/CF-Font.
- Abstract(参考訳): コンテンツとスタイルの切り離しは、少数ショットフォント生成を実現する効果的な方法である。
ソースドメイン内のフォントイメージのスタイルを、ターゲットドメイン内のいくつかの参照イメージで定義されたスタイルに転送することができる。
しかし、代表フォントで抽出されたコンテンツ機能は最適ではないかもしれない。
そこで本研究では,基本フォントのコンテンツ特徴によって定義された線形空間にコンテンツ特徴を投影するコンテンツ融合モジュール(cfm)を提案する。
また,isr(lightweightly style-vectorfinement)戦略により,参照画像のスタイル表現ベクトルを最適化する手法を提案する。
さらに、文字画像の1次元投影を確率分布として扱い、2つの分布間の距離を再構成損失(すなわち投影文字損失、pcl)として利用する。
L2またはL1再構成損失と比較して、分布距離は文字のグローバルな形状により多くの注意を払う。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
実験結果から,本手法が既存の最先端フォント生成手法を大差で上回ることを確認した。
ソースコードはhttps://github.com/wangchi95/CF-Font.orgにある。
関連論文リスト
- JoyType: A Robust Design for Multilingual Visual Text Creation [14.441897362967344]
複数言語によるビジュアルテキスト作成のための新しい手法JoyTypeを紹介した。
JoyTypeは、画像生成プロセス中にテキストのフォントスタイルを維持するように設計されている。
実測値と精度の両面から評価した結果,JoyTypeが既存の最先端手法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-26T04:23:17Z) - FontDiffuser: One-Shot Font Generation via Denoising Diffusion with
Multi-Scale Content Aggregation and Style Contrastive Learning [45.696909070215476]
FontDiffuserは拡散に基づく画像から画像へのワンショットフォント生成手法である。
従来の方法と比較して、複雑な文字と大きなスタイルの変更を一貫して排他的に引き継いでいる。
論文 参考訳(メタデータ) (2023-12-19T13:23:20Z) - Few shot font generation via transferring similarity guided global style
and quantization local style [11.817299400850176]
文字類似性に基づくグローバル特徴とスタイル化コンポーネントレベルの表現からスタイルを集約する新しいフォント生成手法を提案する。
我々のAFFG法は、コンポーネントレベルの表現の完全なセットを得ることができ、また、グローバルなグリフ特性を制御できる。
論文 参考訳(メタデータ) (2023-09-02T05:05:40Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - DSI2I: Dense Style for Unpaired Image-to-Image Translation [70.93865212275412]
Inpaired exemplar-based image-to-image (UEI2I) 翻訳は、ソース画像をターゲット画像領域に変換する。
我々は,スタイルを高密度な特徴写像として表現し,外部意味情報を必要とせず,よりきめ細かなソース画像の転送を可能にすることを提案する。
以上の結果から,本手法による翻訳は,より多様であり,資料内容の保存性が向上し,最先端の手法と比較すると,先例に近づいたことが示唆された。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - XMP-Font: Self-Supervised Cross-Modality Pre-training for Few-Shot Font
Generation [13.569449355929574]
本稿では,自己教師型クロスモダリティ事前学習戦略とクロスモダリティトランスフォーマーを用いたエンコーダを提案する。
エンコーダは、グリフ画像と対応するストロークラベルとを共同で条件付けする。
1つの参照グリフしか必要とせず、2番目のベストよりも28%低い数ショットフォント生成タスクにおいて、悪いケースの最低率を達成する。
論文 参考訳(メタデータ) (2022-04-11T13:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。