論文の概要: Few-shot Compositional Font Generation with Dual Memory
- arxiv url: http://arxiv.org/abs/2005.10510v2
- Date: Thu, 16 Jul 2020 11:47:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 23:10:42.827629
- Title: Few-shot Compositional Font Generation with Dual Memory
- Title(参考訳): デュアルメモリを用いた合成フォント生成
- Authors: Junbum Cha, Sanghyuk Chun, Gayoung Lee, Bado Lee, Seonghyeon Kim, and
Hwalsuk Lee
- Abstract要約: 我々は、新しいフォント生成フレームワークDual Memory-augmented Font Generation Network (DM-Font)を提案する。
我々は、構成性を活用するために、メモリコンポーネントとグローバルコンテキスト認識をジェネレータに採用する。
韓国手書きフォントとタイ手書きフォントの実験では,本手法が忠実なスタイリングによるサンプルの品質を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 16.967987801167514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating a new font library is a very labor-intensive and time-consuming
job for glyph-rich scripts. Despite the remarkable success of existing font
generation methods, they have significant drawbacks; they require a large
number of reference images to generate a new font set, or they fail to capture
detailed styles with only a few samples. In this paper, we focus on
compositional scripts, a widely used letter system in the world, where each
glyph can be decomposed by several components. By utilizing the
compositionality of compositional scripts, we propose a novel font generation
framework, named Dual Memory-augmented Font Generation Network (DM-Font), which
enables us to generate a high-quality font library with only a few samples. We
employ memory components and global-context awareness in the generator to take
advantage of the compositionality. In the experiments on Korean-handwriting
fonts and Thai-printing fonts, we observe that our method generates a
significantly better quality of samples with faithful stylization compared to
the state-of-the-art generation methods quantitatively and qualitatively.
Source code is available at https://github.com/clovaai/dmfont.
- Abstract(参考訳): 新しいフォントライブラリを生成することは、glyphに富んだスクリプトに対して非常に労力と時間を要する作業である。
既存のフォント生成方法の顕著な成功にもかかわらず、新しいフォントセットを生成するのに大量の参照画像を必要とするか、少数のサンプルで詳細なスタイルをキャプチャできないという重大な欠点がある。
本稿では,各グリフを複数の構成要素で分解可能な,世界で広く使用されている文字体系である合成スクリプトに注目した。
本稿では,合成スクリプトの構成性を利用して,dual memory-augmented font generation network (dm-font) と呼ばれる新しいフォント生成フレームワークを提案する。
我々は、構成性を活用するために、メモリコンポーネントとグローバルコンテキスト認識をジェネレータに採用する。
韓国手書きフォントとタイ手書きフォントの実験において,本手法は,最先端のテクスト生成手法と比較して,忠実なスタイリゼーションを施したサンプルの品質を,定量的かつ定性的に生成する。
ソースコードはhttps://github.com/clovaai/dmfontで入手できる。
関連論文リスト
- DeepCalliFont: Few-shot Chinese Calligraphy Font Synthesis by
Integrating Dual-modality Generative Models [20.76773399161289]
特に中国語のフォントのフォント生成は困難で、進行中の課題である。
本稿では,2つのモダリティ生成モデルを統合することで,数ショットの漢字フォント合成のための新しいモデルDeepCalliFontを提案する。
論文 参考訳(メタデータ) (2023-12-16T04:23:12Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - XMP-Font: Self-Supervised Cross-Modality Pre-training for Few-Shot Font
Generation [13.569449355929574]
本稿では,自己教師型クロスモダリティ事前学習戦略とクロスモダリティトランスフォーマーを用いたエンコーダを提案する。
エンコーダは、グリフ画像と対応するストロークラベルとを共同で条件付けする。
1つの参照グリフしか必要とせず、2番目のベストよりも28%低い数ショットフォント生成タスクにおいて、悪いケースの最低率を達成する。
論文 参考訳(メタデータ) (2022-04-11T13:34:40Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Few-Shot Font Generation with Deep Metric Learning [33.12829580813688]
提案するフレームワークは、スタイルエンコーダにディープメトリック学習を導入している。
白黒フォントと形状識別フォントのデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-11-04T10:12:10Z) - Few-shot Font Generation with Localized Style Representations and
Factorization [23.781619323447003]
ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習し,新しいフォント生成手法を提案する。
提案手法は,8つの基準グリフ画像しか持たない少数のフォント生成結果が,他の最先端のフォントよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T10:33:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。