論文の概要: MX-Font++: Mixture of Heterogeneous Aggregation Experts for Few-shot Font Generation
- arxiv url: http://arxiv.org/abs/2503.02799v1
- Date: Tue, 04 Mar 2025 17:18:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:17:40.764635
- Title: MX-Font++: Mixture of Heterogeneous Aggregation Experts for Few-shot Font Generation
- Title(参考訳): MX-Font++:Few-shot Font生成のための不均一集約エキスパートの混合
- Authors: Weihang Wang, Duolin Sun, Jielei Zhang, Longwen Gao,
- Abstract要約: Few-shot Font Generation (FFG)は、限られた参照グリフを使用して新しいフォントライブラリを作成することを目的としている。
MX-Fontは、局所的なコンポーネントの観点から文字の内容を考え、Mixture of Experts (MoE) アプローチを用いて、より優れた遷移のためにコンポーネントを適応的に抽出する。
これらの問題を緩和するために、チャンネル次元や空間次元の情報を集約できないように、コンテンツとスタイルを分離する強力な特徴抽出エキスパートであるヘテロジニアス・アグリゲーション・エキスパート(HAE)を提案する。
- 参考スコア(独自算出の注目度): 4.850415618396122
- License:
- Abstract: Few-shot Font Generation (FFG) aims to create new font libraries using limited reference glyphs, with crucial applications in digital accessibility and equity for low-resource languages, especially in multilingual artificial intelligence systems. Although existing methods have shown promising performance, transitioning to unseen characters in low-resource languages remains a significant challenge, especially when font glyphs vary considerably across training sets. MX-Font considers the content of a character from the perspective of a local component, employing a Mixture of Experts (MoE) approach to adaptively extract the component for better transition. However, the lack of a robust feature extractor prevents them from adequately decoupling content and style, leading to sub-optimal generation results. To alleviate these problems, we propose Heterogeneous Aggregation Experts (HAE), a powerful feature extraction expert that helps decouple content and style downstream from being able to aggregate information in channel and spatial dimensions. Additionally, we propose a novel content-style homogeneity loss to enhance the untangling. Extensive experiments on several datasets demonstrate that our MX-Font++ yields superior visual results in FFG and effectively outperforms state-of-the-art methods. Code and data are available at https://github.com/stephensun11/MXFontpp.
- Abstract(参考訳): Few-shot Font Generation (FFG) は、特に多言語人工知能システムにおいて、低リソース言語のデジタルアクセシビリティとエクイティにおいて重要な応用を持つ、限られた参照グリフを用いた新しいフォントライブラリを作成することを目的としている。
既存の手法は有望な性能を示しているが、特にフォントグリフがトレーニングセットによって大きく異なる場合、低リソース言語での未確認文字への移行は大きな課題である。
MX-Fontは、局所的なコンポーネントの観点から文字の内容を考え、Mixture of Experts (MoE) アプローチを用いて、より優れた遷移のためにコンポーネントを適応的に抽出する。
しかし、ロバストな特徴抽出器がないため、コンテンツやスタイルを適切に切り離すことができず、準最適生成結果が得られる。
これらの問題を緩和するために、チャンネル次元や空間次元の情報を集約できないように、コンテンツとスタイルを分離する強力な特徴抽出エキスパートであるヘテロジニアス・アグリゲーション・エキスパート(HAE)を提案する。
さらに, アンタングリングを向上するために, コンテンツスタイルの新規な均一性損失を提案する。
いくつかのデータセットに対する大規模な実験により、我々のMX-Font++はFFGにおいて優れた視覚結果をもたらし、最先端の手法を効果的に上回ることを示した。
コードとデータはhttps://github.com/stephensun11/MXFontpp.comで公開されている。
関連論文リスト
- Few shot font generation via transferring similarity guided global style
and quantization local style [11.817299400850176]
文字類似性に基づくグローバル特徴とスタイル化コンポーネントレベルの表現からスタイルを集約する新しいフォント生成手法を提案する。
我々のAFFG法は、コンポーネントレベルの表現の完全なセットを得ることができ、また、グローバルなグリフ特性を制御できる。
論文 参考訳(メタデータ) (2023-09-02T05:05:40Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - DG-Font: Deformable Generative Networks for Unsupervised Font Generation [14.178381391124036]
非監視フォント生成(DGFont)のための新しい変形可能な生成ネットワークを提案する。
本稿では,一対の変位マップを予測し,予測地図を用いてコンテンツエンコーダからの低レベル特徴マップに変形可能な畳み込みを適用する特徴変形スキップ接続(fdsc)を提案する。
実験により,本モデルが最先端手法よりも高品質な文字を生成することを実証した。
論文 参考訳(メタデータ) (2021-04-07T11:32:32Z) - Multiple Heads are Better than One: Few-shot Font Generation with
Multiple Localized Experts [17.97183447033118]
マルチローカライズドエキスパートFew-shot Font Generation Network (MX-Font) という新しいFFG手法を提案する。
mx-fontは、コンポーネントラベルではなく、複数の専門家によって自動的に異なるローカル概念を表現する複数のスタイル特徴を抽出する。
私たちの実験では、MX-Fontは、中国世代およびクロスリンガル、例えば中国語から韓国語、世代における以前の最先端のFFG法を上回っています。
論文 参考訳(メタデータ) (2021-04-02T05:20:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。