論文の概要: DualVector: Unsupervised Vector Font Synthesis with Dual-Part
Representation
- arxiv url: http://arxiv.org/abs/2305.10462v1
- Date: Wed, 17 May 2023 08:18:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 18:47:03.729388
- Title: DualVector: Unsupervised Vector Font Synthesis with Dual-Part
Representation
- Title(参考訳): DualVector:デュアル部分表現を用いた教師なしベクトルフォント合成
- Authors: Ying-Tian Liu, Zhifei Zhang, Yuan-Chen Guo, Matthew Fisher, Zhaowen
Wang, Song-Hai Zhang
- Abstract要約: 現在のフォント合成法では、形状を簡潔に表現できないか、訓練中にベクトル監督を必要とする。
ベクトルグリフに対する新しい双対表現を提案し、各グリフは閉「正」経路対と「負」経路対の集合としてモデル化される。
我々の手法はDual-of-Font-artと呼ばれ、最先端の手法よりも実用性が高い。
- 参考スコア(独自算出の注目度): 43.64428946288288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic generation of fonts can be an important aid to typeface design.
Many current approaches regard glyphs as pixelated images, which present
artifacts when scaling and inevitable quality losses after vectorization. On
the other hand, existing vector font synthesis methods either fail to represent
the shape concisely or require vector supervision during training. To push the
quality of vector font synthesis to the next level, we propose a novel
dual-part representation for vector glyphs, where each glyph is modeled as a
collection of closed "positive" and "negative" path pairs. The glyph contour is
then obtained by boolean operations on these paths. We first learn such a
representation only from glyph images and devise a subsequent contour
refinement step to align the contour with an image representation to further
enhance details. Our method, named DualVector, outperforms state-of-the-art
methods in vector font synthesis both quantitatively and qualitatively. Our
synthesized vector fonts can be easily converted to common digital font formats
like TrueType Font for practical use. The code is released at
https://github.com/thuliu-yt16/dualvector.
- Abstract(参考訳): フォントの自動生成はフォント設計の重要な助けとなる。
現在の多くのアプローチでは、グリフをピクセル化画像とみなし、拡張時のアーティファクトとベクター化後の品質損失を提示している。
一方、既存のベクトルフォント合成法では、形状を簡潔に表現できないか、訓練中にベクトル監督を必要とする。
ベクトルフォント合成の質を次のレベルに押し上げるために,各グリフを閉じた「正」と「負」の経路対の集合としてモデル化する,ベクトルグリフのための新しい双対表現を提案する。
グリフ輪郭はこれらの経路上のブール演算によって得られる。
まず,そのような表現をグリフ画像からのみ学習し,それに続く輪郭改良ステップを考案し,輪郭を画像表現と整合させ,さらに詳細化を図る。
我々の手法はDualVectorと呼ばれ、ベクトルフォント合成における最先端の手法よりも定量的かつ定性的に優れている。
我々の合成ベクトルフォントは、TrueType Fontのような一般的なデジタルフォント形式に簡単に変換できる。
コードはhttps://github.com/thuliu-yt16/dualvectorでリリースされる。
関連論文リスト
- HFH-Font: Few-shot Chinese Font Synthesis with Higher Quality, Faster Speed, and Higher Resolution [17.977410216055024]
HFH-Fontは高解像度のグリフ画像を効率よく生成できる数ショットフォント合成法である。
プロのフォントデザイナーが手作業で作成したフォントに匹敵する品質の大規模な中国語のベクトルフォントを、初めて自動生成することができる。
論文 参考訳(メタデータ) (2024-10-09T02:30:24Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - VecFontSDF: Learning to Reconstruct and Synthesize High-quality Vector
Fonts via Signed Distance Functions [15.47282857047361]
本稿では,高品質なベクトルフォントの再構成と合成を行うために,エンドツーエンドのトレーニング可能なVecFontSDFを提案する。
提案したSDFに基づく暗黙的形状表現に基づいて、VecFontSDFは、各グリフを複数のパラボラ曲線で囲まれた形状プリミティブとしてモデル化することを学ぶ。
論文 参考訳(メタデータ) (2023-03-22T16:14:39Z) - XMP-Font: Self-Supervised Cross-Modality Pre-training for Few-Shot Font
Generation [13.569449355929574]
本稿では,自己教師型クロスモダリティ事前学習戦略とクロスモダリティトランスフォーマーを用いたエンコーダを提案する。
エンコーダは、グリフ画像と対応するストロークラベルとを共同で条件付けする。
1つの参照グリフしか必要とせず、2番目のベストよりも28%低い数ショットフォント生成タスクにおいて、悪いケースの最低率を達成する。
論文 参考訳(メタデータ) (2022-04-11T13:34:40Z) - DeepVecFont: Synthesizing High-quality Vector Fonts via Dual-modality
Learning [21.123297001902177]
本稿では,ベクトルグリフを生成するための新しい手法であるDeepVecFontを提案する。
まず、フォントのイメージ・アスペクトとシーケンス・アスペクトの両特徴を利用してベクトルグリフを合成する双対モダリティ学習戦略を設計する。
第2に、非構造化データ(例えばベクトルグリフ)をランダムにサンプリングして、生成した構造化データのガイダンスの下でさらに洗練された最適なデータを得る、新しい生成パラダイムを提供する。
論文 参考訳(メタデータ) (2021-10-13T12:57:19Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - Learning Implicit Glyph Shape Representation [6.413829791927052]
本稿では,2次曲線を囲む形状プリミティブとしてグリフを表現し,任意の高分解能でグリフ像を自然に生成できる,新しい暗黙的なグリフ形状表現を提案する。
提案した表現に基づいて,一発フォントスタイルの転送問題に挑戦する上で,単純だが効果的に絡み合ったネットワークを設計する。
論文 参考訳(メタデータ) (2021-06-16T06:42:55Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。