論文の概要: DeepVecFont: Synthesizing High-quality Vector Fonts via Dual-modality
Learning
- arxiv url: http://arxiv.org/abs/2110.06688v1
- Date: Wed, 13 Oct 2021 12:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 15:43:52.145942
- Title: DeepVecFont: Synthesizing High-quality Vector Fonts via Dual-modality
Learning
- Title(参考訳): DeepVecFont: デュアルモダリティ学習による高品質ベクトルフォントの合成
- Authors: Yizhi Wang and Zhouhui Lian
- Abstract要約: 本稿では,ベクトルグリフを生成するための新しい手法であるDeepVecFontを提案する。
まず、フォントのイメージ・アスペクトとシーケンス・アスペクトの両特徴を利用してベクトルグリフを合成する双対モダリティ学習戦略を設計する。
第2に、非構造化データ(例えばベクトルグリフ)をランダムにサンプリングして、生成した構造化データのガイダンスの下でさらに洗練された最適なデータを得る、新しい生成パラダイムを提供する。
- 参考スコア(独自算出の注目度): 21.123297001902177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic font generation based on deep learning has aroused a lot of
interest in the last decade. However, only a few recently-reported approaches
are capable of directly generating vector glyphs and their results are still
far from satisfactory. In this paper, we propose a novel method, DeepVecFont,
to effectively resolve this problem. Using our method, for the first time,
visually-pleasing vector glyphs whose quality and compactness are both
comparable to human-designed ones can be automatically generated. The key idea
of our DeepVecFont is to adopt the techniques of image synthesis, sequence
modeling and differentiable rasterization to exhaustively exploit the
dual-modality information (i.e., raster images and vector outlines) of vector
fonts. The highlights of this paper are threefold. First, we design a
dual-modality learning strategy which utilizes both image-aspect and
sequence-aspect features of fonts to synthesize vector glyphs. Second, we
provide a new generative paradigm to handle unstructured data (e.g., vector
glyphs) by randomly sampling plausible synthesis results to get the optimal one
which is further refined under the guidance of generated structured data (e.g.,
glyph images). Finally, qualitative and quantitative experiments conducted on a
publicly-available dataset demonstrate that our method obtains high-quality
synthesis results in the applications of vector font generation and
interpolation, significantly outperforming the state of the art.
- Abstract(参考訳): ディープラーニングに基づく自動フォント生成は、過去10年間、多くの関心を集めてきた。
しかし、最近報告されたいくつかのアプローチだけが直接ベクトルグリフを生成することができ、その結果はまだ十分ではない。
本稿では,この問題を効果的に解決するための新しい手法であるDeepVecFontを提案する。
この方法を用いることで、品質とコンパクト性が共に人間の設計に匹敵する視覚的に満足するベクトルグリフを自動生成することができる。
deepvecfontの重要なアイデアは、画像合成、シーケンスモデリング、微分可能なラスタ化の技術を採用し、ベクターフォントのデュアルモダリティ情報(すなわちラスタイメージとベクトルアウトライン)を徹底的に活用することです。
この論文のハイライトは3倍です。
まず、フォントのイメージ・アスペクトとシーケンス・アスペクトの両特徴を利用してベクトルグリフを合成する双対モダリティ学習戦略を設計する。
第2に,非構造化データ(例えばベクトルグリフ)をランダムにサンプリングして処理し,生成された構造化データ(例えばグリフ画像)の指導の下でさらに洗練された最適なデータを得るための新しい生成パラダイムを提案する。
最後に,公開データセット上での質的,定量的な実験により,ベクトルフォント生成と補間の応用において高品質な合成結果が得られることを示し,その性能を著しく上回っている。
関連論文リスト
- HFH-Font: Few-shot Chinese Font Synthesis with Higher Quality, Faster Speed, and Higher Resolution [17.977410216055024]
HFH-Fontは高解像度のグリフ画像を効率よく生成できる数ショットフォント合成法である。
プロのフォントデザイナーが手作業で作成したフォントに匹敵する品質の大規模な中国語のベクトルフォントを、初めて自動生成することができる。
論文 参考訳(メタデータ) (2024-10-09T02:30:24Z) - DeepCalliFont: Few-shot Chinese Calligraphy Font Synthesis by
Integrating Dual-modality Generative Models [20.76773399161289]
特に中国語のフォントのフォント生成は困難で、進行中の課題である。
本稿では,2つのモダリティ生成モデルを統合することで,数ショットの漢字フォント合成のための新しいモデルDeepCalliFontを提案する。
論文 参考訳(メタデータ) (2023-12-16T04:23:12Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - DualVector: Unsupervised Vector Font Synthesis with Dual-Part
Representation [43.64428946288288]
現在のフォント合成法では、形状を簡潔に表現できないか、訓練中にベクトル監督を必要とする。
ベクトルグリフに対する新しい双対表現を提案し、各グリフは閉「正」経路対と「負」経路対の集合としてモデル化される。
我々の手法はDual-of-Font-artと呼ばれ、最先端の手法よりも実用性が高い。
論文 参考訳(メタデータ) (2023-05-17T08:18:06Z) - DeepVecFont-v2: Exploiting Transformers to Synthesize Vector Fonts with
Higher Quality [38.32966391626858]
本稿では,ベクトルフォント合成のためのDeepVecFontの拡張版を提案する。
RNNの代わりにTransformerを採用して逐次データ処理を行い、ベクトルアウトラインの緩和表現を設計する。
また,生成したB'ezier曲線や線を正確に整列する制御点に加えて,補助点のサンプリングも提案する。
論文 参考訳(メタデータ) (2023-03-25T23:28:19Z) - VecFontSDF: Learning to Reconstruct and Synthesize High-quality Vector
Fonts via Signed Distance Functions [15.47282857047361]
本稿では,高品質なベクトルフォントの再構成と合成を行うために,エンドツーエンドのトレーニング可能なVecFontSDFを提案する。
提案したSDFに基づく暗黙的形状表現に基づいて、VecFontSDFは、各グリフを複数のパラボラ曲線で囲まれた形状プリミティブとしてモデル化することを学ぶ。
論文 参考訳(メタデータ) (2023-03-22T16:14:39Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - Towards Open-World Text-Guided Face Image Generation and Manipulation [52.83401421019309]
顔画像生成と操作の両方に統一的なフレームワークを提案する。
本手法は,画像とテキストの両方を含むオープンワールドシナリオをサポートし,再トレーニングや微調整,後処理は行わない。
論文 参考訳(メタデータ) (2021-04-18T16:56:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。