論文の概要: A Multi-Implicit Neural Representation for Fonts
- arxiv url: http://arxiv.org/abs/2106.06866v1
- Date: Sat, 12 Jun 2021 21:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 13:53:59.000705
- Title: A Multi-Implicit Neural Representation for Fonts
- Title(参考訳): フォントのための多機能ニューラルネットワーク表現
- Authors: Pradyumna Reddy, Zhifei Zhang, Matthew Fisher, Hailin Jin, Zhaowen
Wang, Niloy J. Mitra
- Abstract要約: エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
- 参考スコア(独自算出の注目度): 79.6123184198301
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Fonts are ubiquitous across documents and come in a variety of styles. They
are either represented in a native vector format or rasterized to produce fixed
resolution images. In the first case, the non-standard representation prevents
benefiting from latest network architectures for neural representations; while,
in the latter case, the rasterized representation, when encoded via networks,
results in loss of data fidelity, as font-specific discontinuities like edges
and corners are difficult to represent using neural networks. Based on the
observation that complex fonts can be represented by a superposition of a set
of simpler occupancy functions, we introduce \textit{multi-implicits} to
represent fonts as a permutation-invariant set of learned implict functions,
without losing features (e.g., edges and corners). However, while
multi-implicits locally preserve font features, obtaining supervision in the
form of ground truth multi-channel signals is a problem in itself. Instead, we
propose how to train such a representation with only local supervision, while
the proposed neural architecture directly finds globally consistent
multi-implicits for font families. We extensively evaluate the proposed
representation for various tasks including reconstruction, interpolation, and
synthesis to demonstrate clear advantages with existing alternatives.
Additionally, the representation naturally enables glyph completion, wherein a
single characteristic font is used to synthesize a whole font family in the
target style.
- Abstract(参考訳): フォントはドキュメントにまたがってユビキタスであり、様々なスタイルがある。
それらはネイティブベクトルフォーマットで表現されるか、固定解像度画像を生成するためにラスタライズされる。
第一に、非標準表現は、ニューラルネットワーク表現のための最新のネットワークアーキテクチャの利益を防ぎ、後者の場合、ラスタライズド表現は、ネットワークを介して符号化されると、エッジやコーナーのようなフォント固有の不連続がニューラルネットワークを使用して表現することが難しいため、データの忠実度が失われる。
複雑なフォントを単純な占有関数の集合の重ね合わせで表現できるという観測に基づいて、フォントを特徴(例えばエッジとコーナー)を失うことなく、学習されたインプライクト関数の置換不変集合として表現する \textit{multi-implicits} を導入する。
しかし、複数の実装がフォントの特徴をローカルに保存する一方で、基底真理のマルチチャネル信号の形で監督を得ること自体が問題となる。
代わりに,このような表現を局所的な監督だけでトレーニングする方法を提案する一方で,提案するニューラルネットワークはフォントファミリのグローバルに一貫性のあるマルチ実装を直接発見する。
提案手法は, 再構成, 補間, 合成を含む様々なタスクの表現を広範囲に評価し, 既存の代替案の明確な利点を示す。
さらに、この表現はグリフ補完を自然に可能にし、単一の特徴フォントを使用してターゲットスタイルでフォントファミリ全体を合成する。
関連論文リスト
- VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - VecFontSDF: Learning to Reconstruct and Synthesize High-quality Vector
Fonts via Signed Distance Functions [15.47282857047361]
本稿では,高品質なベクトルフォントの再構成と合成を行うために,エンドツーエンドのトレーニング可能なVecFontSDFを提案する。
提案したSDFに基づく暗黙的形状表現に基づいて、VecFontSDFは、各グリフを複数のパラボラ曲線で囲まれた形状プリミティブとしてモデル化することを学ぶ。
論文 参考訳(メタデータ) (2023-03-22T16:14:39Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - XMP-Font: Self-Supervised Cross-Modality Pre-training for Few-Shot Font
Generation [13.569449355929574]
本稿では,自己教師型クロスモダリティ事前学習戦略とクロスモダリティトランスフォーマーを用いたエンコーダを提案する。
エンコーダは、グリフ画像と対応するストロークラベルとを共同で条件付けする。
1つの参照グリフしか必要とせず、2番目のベストよりも28%低い数ショットフォント生成タスクにおいて、悪いケースの最低率を達成する。
論文 参考訳(メタデータ) (2022-04-11T13:34:40Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Learning Implicit Glyph Shape Representation [6.413829791927052]
本稿では,2次曲線を囲む形状プリミティブとしてグリフを表現し,任意の高分解能でグリフ像を自然に生成できる,新しい暗黙的なグリフ形状表現を提案する。
提案した表現に基づいて,一発フォントスタイルの転送問題に挑戦する上で,単純だが効果的に絡み合ったネットワークを設計する。
論文 参考訳(メタデータ) (2021-06-16T06:42:55Z) - Multiform Fonts-to-Fonts Translation via Style and Content Disentangled
Representations of Chinese Character [10.236778478360614]
本研究の目的は,文字の内容とスタイルを抽出・再結合できるネットワークフレームワークを設計することである。
本稿では、畳み込みニューラルネットワーク、多層パーセプトロン、残留ネットワークなどの様々な深度ネットワークを組み合わせて最適モデルを求める。
その結果、構造類似度指数とピーク信号対雑音比評価基準を用いて、生成した文字が実際の文字に非常に近いことを示す。
論文 参考訳(メタデータ) (2020-03-28T04:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。