論文の概要: Transformer-Based Vector Font Classification Using Different Font Formats: TrueType versus PostScript
- arxiv url: http://arxiv.org/abs/2502.00250v1
- Date: Sat, 01 Feb 2025 01:16:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:59:52.073653
- Title: Transformer-Based Vector Font Classification Using Different Font Formats: TrueType versus PostScript
- Title(参考訳): 異なるフォントフォーマットを用いたトランスフォーマーベースベクトルフォント分類:TrueType対PostScript
- Authors: Takumu Fujioka, Gouhei Tanaka,
- Abstract要約: 変換器を用いたベクトルグラフィックスの深層学習において,アウトラインに基づくフォント表現がTrueTypeのアウトラインよりも優れていることを示す。
その結果,情報集約はトランスフォーマーによるベクトルグラフィックスの深層学習において重要であり,言語モデルのトークン化やビットマップによる画像認識モデルのパッチ分割においても重要であることが示唆された。
- 参考スコア(独自算出の注目度): 1.1838866556981258
- License:
- Abstract: Modern fonts adopt vector-based formats, which ensure scalability without loss of quality. While many deep learning studies on fonts focus on bitmap formats, deep learning for vector fonts remains underexplored. In studies involving deep learning for vector fonts, the choice of font representation has often been made conventionally. However, the font representation format is one of the factors that can influence the computational performance of machine learning models in font-related tasks. Here we show that font representations based on PostScript outlines outperform those based on TrueType outlines in Transformer-based vector font classification. TrueType outlines represent character shapes as sequences of points and their associated flags, whereas PostScript outlines represent them as sequences of commands. In previous research, PostScript outlines have been predominantly used when fonts are treated as part of vector graphics, while TrueType outlines are mainly employed when focusing on fonts alone. Whether to use PostScript or TrueType outlines has been mainly determined by file format specifications and precedent settings in previous studies, rather than performance considerations. To date, few studies have compared which outline format provides better embedding representations. Our findings suggest that information aggregation is crucial in Transformer-based deep learning for vector graphics, as in tokenization in language models and patch division in bitmap-based image recognition models. This insight provides valuable guidance for selecting outline formats in future research on vector graphics.
- Abstract(参考訳): 現代のフォントはベクターベースのフォーマットを採用しており、品質を損なうことなく拡張性を確保する。
フォントに関する多くのディープラーニング研究はビットマップ形式に重点を置いているが、ベクトルフォントのディープラーニングはいまだ探索されていない。
ベクトルフォントの深層学習に関する研究において、フォント表現の選択は従来から行われてきた。
しかし、フォント表現形式は、フォント関連タスクにおける機械学習モデルの計算性能に影響を与える要因の1つである。
ここでは、PostScriptに基づくフォント表現が、Transformerベースのベクトルフォント分類においてTrueTypeアウトラインよりも優れていることを示す。
TrueTypeのアウトラインはポイントとその関連するフラグのシーケンスとして、PostScriptのアウトラインはそれらをコマンドのシーケンスとして表現する。
以前の研究では、PostScriptのアウトラインは主にフォントをベクトルグラフィックスの一部として扱うときに使われており、TrueTypeのアウトラインは主にフォントのみに焦点を当てるときに使われている。
PostScriptかTrueTypeのアウトラインを使用するかは、主にパフォーマンスよりも、以前の研究におけるファイルフォーマットの仕様と前例の設定によって決定されている。
これまで、どのアウトラインフォーマットがより良い埋め込み表現を提供するかについて比較した研究はほとんどない。
その結果,情報集約はトランスフォーマーによるベクトルグラフィックスの深層学習において重要であり,言語モデルのトークン化やビットマップによる画像認識モデルのパッチ分割においても重要であることが示唆された。
この洞察は、将来のベクトルグラフィックスの研究において、アウトラインフォーマットを選択するための貴重なガイダンスを提供する。
関連論文リスト
- DualVector: Unsupervised Vector Font Synthesis with Dual-Part
Representation [43.64428946288288]
現在のフォント合成法では、形状を簡潔に表現できないか、訓練中にベクトル監督を必要とする。
ベクトルグリフに対する新しい双対表現を提案し、各グリフは閉「正」経路対と「負」経路対の集合としてモデル化される。
我々の手法はDual-of-Font-artと呼ばれ、最先端の手法よりも実用性が高い。
論文 参考訳(メタデータ) (2023-05-17T08:18:06Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - VecFontSDF: Learning to Reconstruct and Synthesize High-quality Vector
Fonts via Signed Distance Functions [15.47282857047361]
本稿では,高品質なベクトルフォントの再構成と合成を行うために,エンドツーエンドのトレーニング可能なVecFontSDFを提案する。
提案したSDFに基づく暗黙的形状表現に基づいて、VecFontSDFは、各グリフを複数のパラボラ曲線で囲まれた形状プリミティブとしてモデル化することを学ぶ。
論文 参考訳(メタデータ) (2023-03-22T16:14:39Z) - Font Representation Learning via Paired-glyph Matching [15.358456947574913]
本稿では,フォントスタイルを潜在空間に埋め込む新しいフォント表現学習手法を提案する。
フォントを他者から識別的に表現するために,マッチングに基づくフォント表現学習モデルを提案する。
フォント表現学習方式は,既存のフォント表現学習手法よりも優れた一般化性能が得られることを示す。
論文 参考訳(メタデータ) (2022-11-20T12:27:27Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。