論文の概要: Scalable Font Reconstruction with Dual Latent Manifolds
- arxiv url: http://arxiv.org/abs/2109.06627v1
- Date: Fri, 10 Sep 2021 20:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:58:27.555896
- Title: Scalable Font Reconstruction with Dual Latent Manifolds
- Title(参考訳): Dual Latent Manifold を用いたスケーラブルフォント再構成
- Authors: Nikita Srivatsan, Si Wu, Jonathan T. Barron, Taylor Berg-Kirkpatrick
- Abstract要約: タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
- 参考スコア(独自算出の注目度): 55.29525824849242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a deep generative model that performs typography analysis and font
reconstruction by learning disentangled manifolds of both font style and
character shape. Our approach enables us to massively scale up the number of
character types we can effectively model compared to previous methods.
Specifically, we infer separate latent variables representing character and
font via a pair of inference networks which take as input sets of glyphs that
either all share a character type, or belong to the same font. This design
allows our model to generalize to characters that were not observed during
training time, an important task in light of the relative sparsity of most
fonts. We also put forward a new loss, adapted from prior work that measures
likelihood using an adaptive distribution in a projected space, resulting in
more natural images without requiring a discriminator. We evaluate on the task
of font reconstruction over various datasets representing character types of
many languages, and compare favorably to modern style transfer systems
according to both automatic and manually-evaluated metrics.
- Abstract(参考訳): フォントスタイルと文字形状の両方の非交叉多様体を学習し,タイポグラフィ解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチにより,従来手法と比較して効果的にモデル化できるキャラクタタイプ数を大規模にスケールアップできる。
具体的には、文字タイプを共有するグリフの入力セットとして、または同じフォントに属する2つの推論ネットワークを介して、文字とフォントを表す別の潜在変数を推測する。
この設計により、トレーニング期間中に観察されなかった文字にモデルを一般化することが可能となり、ほとんどのフォントの相対的な疎さを考慮して重要なタスクとなる。
また、従来の作業から、投影空間における適応分布の可能性を測り、判別器を必要とせず、より自然な画像が得られるように、新たな損失を提起した。
我々は,多くの言語の文字タイプを表す各種データセットに対するフォント再構成の課題について評価し,自動および手動評価の指標に応じて,現代のスタイル転送システムと比較した。
関連論文リスト
- Khattat: Enhancing Readability and Concept Representation of Semantic Typography [0.3994968615706021]
セマンティックタイポグラフィーは、アイデアを選択し、適切なフォントを選択し、創造性と可読性のバランスをとる。
このプロセスを自動化するエンドツーエンドシステムを導入します。
鍵となる機能はOCRベースの損失関数で、読みやすさを高め、複数の文字の同時スタイリングを可能にする。
論文 参考訳(メタデータ) (2024-10-01T18:42:48Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - DGFont++: Robust Deformable Generative Networks for Unsupervised Font
Generation [19.473023811252116]
教師なしフォント生成のための頑健な変形可能な生成ネットワークを提案する(略してDGFont++)。
異なるスタイルを区別するために、我々はマルチタスク判別器を用いてモデルを訓練し、それぞれのスタイルを独立して識別できるようにした。
実験により,本モデルは最先端手法よりも高品質なキャラクタ画像を生成することができることが示された。
論文 参考訳(メタデータ) (2022-12-30T14:35:10Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - Learning Perceptual Manifold of Fonts [7.395615703126767]
本稿では,フォント生成モデルの潜在空間における知覚的調整を可視化するために,フォントの知覚多様体を提案する。
本研究における従来のユーザインタフェースとは対照的に,フォント探索型ユーザインタフェースは,指定されたユーザ嗜好に対して効率的かつ有効である。
論文 参考訳(メタデータ) (2021-06-17T01:22:52Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。