論文の概要: FontNet: Closing the gap to font designer performance in font synthesis
- arxiv url: http://arxiv.org/abs/2205.06512v1
- Date: Fri, 13 May 2022 08:37:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 13:13:21.593616
- Title: FontNet: Closing the gap to font designer performance in font synthesis
- Title(参考訳): FontNet:フォント合成におけるフォントデザイナーのパフォーマンスのギャップを埋める
- Authors: Ammar Ul Hassan Muhammad, Jaeyoung Choi
- Abstract要約: 本稿では,フォント間の距離がフォント類似度と直接対応するような埋め込み空間において,フォントスタイルの分離を学習するFontNetというモデルを提案する。
我々は,任意の言語システムに適用可能なネットワークアーキテクチャと訓練手順を設計し,高解像度フォント画像を生成する。
- 参考スコア(独自算出の注目度): 3.991334489146843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Font synthesis has been a very active topic in recent years because manual
font design requires domain expertise and is a labor-intensive and
time-consuming job. While remarkably successful, existing methods for font
synthesis have major shortcomings; they require finetuning for unobserved font
style with large reference images, the recent few-shot font synthesis methods
are either designed for specific language systems or they operate on
low-resolution images which limits their use. In this paper, we tackle this
font synthesis problem by learning the font style in the embedding space. To
this end, we propose a model, called FontNet, that simultaneously learns to
separate font styles in the embedding space where distances directly correspond
to a measure of font similarity, and translates input images into the given
observed or unobserved font style. Additionally, we design the network
architecture and training procedure that can be adopted for any language system
and can produce high-resolution font images. Thanks to this approach, our
proposed method outperforms the existing state-of-the-art font generation
methods on both qualitative and quantitative experiments.
- Abstract(参考訳): 手動フォント設計はドメインの専門知識を必要とし、作業集約的で時間のかかる仕事であるため、フォント合成は近年非常に活発な話題となっている。
既存のフォント合成法には、大きな参照画像を持つ未観測フォントスタイルを微調整する必要があるが、最近の数ショットフォント合成法は特定の言語システム用に設計されているか、使用を制限する低解像度の画像で操作されている。
本稿では,組込み空間におけるフォントスタイルを学習することで,このフォント合成問題に取り組む。
そこで本研究では,フォントの類似度の測定値と距離が直接一致する埋め込み空間において,フォントスタイルを分離し,入力画像を所定の観察または観察されていないフォントスタイルに変換するモデルである fontnet を提案する。
さらに,任意の言語システムに適用可能なネットワークアーキテクチャとトレーニング手順を設計し,高解像度フォント画像を生成する。
このアプローチにより,提案手法は質的および定量的実験において,既存の最先端フォント生成手法を上回っている。
関連論文リスト
- GRIF-DM: Generation of Rich Impression Fonts using Diffusion Models [18.15911470339845]
我々は、特定の印象を鮮明に具現化するフォントを生成するための拡散法である「usmethod」を導入する。
MyFontsデータセットを用いて,本手法が現実的で活気があり,高忠実なフォントを生成可能であることを確認した。
論文 参考訳(メタデータ) (2024-08-14T02:26:46Z) - FontDiffuser: One-Shot Font Generation via Denoising Diffusion with
Multi-Scale Content Aggregation and Style Contrastive Learning [45.696909070215476]
FontDiffuserは拡散に基づく画像から画像へのワンショットフォント生成手法である。
従来の方法と比較して、複雑な文字と大きなスタイルの変更を一貫して排他的に引き継いでいる。
論文 参考訳(メタデータ) (2023-12-19T13:23:20Z) - DeepCalliFont: Few-shot Chinese Calligraphy Font Synthesis by
Integrating Dual-modality Generative Models [20.76773399161289]
特に中国語のフォントのフォント生成は困難で、進行中の課題である。
本稿では,2つのモダリティ生成モデルを統合することで,数ショットの漢字フォント合成のための新しいモデルDeepCalliFontを提案する。
論文 参考訳(メタデータ) (2023-12-16T04:23:12Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Learning Perceptual Manifold of Fonts [7.395615703126767]
本稿では,フォント生成モデルの潜在空間における知覚的調整を可視化するために,フォントの知覚多様体を提案する。
本研究における従来のユーザインタフェースとは対照的に,フォント探索型ユーザインタフェースは,指定されたユーザ嗜好に対して効率的かつ有効である。
論文 参考訳(メタデータ) (2021-06-17T01:22:52Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Few-Shot Font Generation with Deep Metric Learning [33.12829580813688]
提案するフレームワークは、スタイルエンコーダにディープメトリック学習を導入している。
白黒フォントと形状識別フォントのデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-11-04T10:12:10Z) - Few-shot Compositional Font Generation with Dual Memory [16.967987801167514]
我々は、新しいフォント生成フレームワークDual Memory-augmented Font Generation Network (DM-Font)を提案する。
我々は、構成性を活用するために、メモリコンポーネントとグローバルコンテキスト認識をジェネレータに採用する。
韓国手書きフォントとタイ手書きフォントの実験では,本手法が忠実なスタイリングによるサンプルの品質を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-05-21T08:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。