論文の概要: Attribute2Font: Creating Fonts You Want From Attributes
- arxiv url: http://arxiv.org/abs/2005.07865v1
- Date: Sat, 16 May 2020 04:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:52:08.725357
- Title: Attribute2Font: Creating Fonts You Want From Attributes
- Title(参考訳): Attribute2Font: 属性から欲しいフォントを作る
- Authors: Yizhi Wang, Yue Gao, Zhouhui Lian
- Abstract要約: Attribute2Fontは、属性値に基づいて条件付けられた任意の2つのフォント間でフォントスタイルの転送を実行するように訓練されている。
Attribute Attention Moduleと呼ばれる新しいユニットは、生成されたグリフ画像が顕著なフォント属性をより具体化するように設計されている。
- 参考スコア(独自算出の注目度): 32.82714291856353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Font design is now still considered as an exclusive privilege of professional
designers, whose creativity is not possessed by existing software systems.
Nevertheless, we also notice that most commercial font products are in fact
manually designed by following specific requirements on some attributes of
glyphs, such as italic, serif, cursive, width, angularity, etc. Inspired by
this fact, we propose a novel model, Attribute2Font, to automatically create
fonts by synthesizing visually-pleasing glyph images according to
user-specified attributes and their corresponding values. To the best of our
knowledge, our model is the first one in the literature which is capable of
generating glyph images in new font styles, instead of retrieving existing
fonts, according to given values of specified font attributes. Specifically,
Attribute2Font is trained to perform font style transfer between any two fonts
conditioned on their attribute values. After training, our model can generate
glyph images in accordance with an arbitrary set of font attribute values.
Furthermore, a novel unit named Attribute Attention Module is designed to make
those generated glyph images better embody the prominent font attributes.
Considering that the annotations of font attribute values are extremely
expensive to obtain, a semi-supervised learning scheme is also introduced to
exploit a large number of unlabeled fonts. Experimental results demonstrate
that our model achieves impressive performance on many tasks, such as creating
glyph images in new font styles, editing existing fonts, interpolation among
different fonts, etc.
- Abstract(参考訳): 現在、フォントデザインは、既存のソフトウェアシステムが所有していないプロのデザイナーの独占的な特権とみなされている。
それにもかかわらず、ほとんどの商用フォント製品は、実際には、イタリック、セリフ、カーシブ、幅、角度などのグリフの属性の特定の要件に従うことで、手動で設計されていることに気づきました。
この事実に触発されて,ユーザが指定した属性と対応する値に基づいて,視覚的に描画したグリフ画像を合成してフォントを自動生成する新しいモデルAttribute2Fontを提案する。
我々の知る限り、我々のモデルは、指定されたフォント属性の所定の値に従って既存のフォントを検索する代わりに、新しいフォントスタイルでグリフ画像を生成することができる文献の中で、最初のものである。
具体的には、属性2fontは、属性値に基づいて条件付けられた2つのフォント間のフォントスタイル転送を実行するように訓練されている。
トレーニング後、フォント属性値の任意のセットに従ってグリフ画像を生成することができる。
さらに、Attribute Attention Moduleと呼ばれる新しいユニットは、生成されたグリフ画像が顕著なフォント属性をより具体化するように設計されている。
フォント属性値のアノテーションは非常に高価であるため,多数の未ラベルフォントを利用するための半教師付き学習スキームも導入されている。
実験結果から,新しいフォントスタイルのグリフ画像の作成,既存のフォントの編集,異なるフォント間の補間など,多くのタスクにおいて優れた性能が得られた。
関連論文リスト
- VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Font Representation Learning via Paired-glyph Matching [15.358456947574913]
本稿では,フォントスタイルを潜在空間に埋め込む新しいフォント表現学習手法を提案する。
フォントを他者から識別的に表現するために,マッチングに基づくフォント表現学習モデルを提案する。
フォント表現学習方式は,既存のフォント表現学習手法よりも優れた一般化性能が得られることを示す。
論文 参考訳(メタデータ) (2022-11-20T12:27:27Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - FONTNET: On-Device Font Understanding and Prediction Pipeline [1.5749416770494706]
フォント検出エンジンとフォント予測エンジンの2つのエンジンを提案する。
画像中のテキストのフォントスタイルを識別する新しいcnnアーキテクチャを開発した。
第2に、与えられたクエリフォントの類似フォントを予測するための新しいアルゴリズムを設計した。
第3に,インスタントメッセージングなどのリアルタイムアプリケーションにおいて,プライバシを確保し,レイテンシを改善するエンジンのオンデバイス全体を最適化し,デプロイしました。
論文 参考訳(メタデータ) (2021-03-30T08:11:24Z) - Impressions2Font: Generating Fonts by Specifying Impressions [10.345810093530261]
本稿では,印象のあるフォント画像を生成するImpressions2Font(Imp2Font)を提案する。
Imp2Fontはフォント画像を生成する条件として任意の数の印象語を受け入れる。
論文 参考訳(メタデータ) (2021-03-18T06:10:26Z) - Few-shot Compositional Font Generation with Dual Memory [16.967987801167514]
我々は、新しいフォント生成フレームワークDual Memory-augmented Font Generation Network (DM-Font)を提案する。
我々は、構成性を活用するために、メモリコンポーネントとグローバルコンテキスト認識をジェネレータに採用する。
韓国手書きフォントとタイ手書きフォントの実験では,本手法が忠実なスタイリングによるサンプルの品質を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-05-21T08:13:40Z) - Neural Style Difference Transfer and Its Application to Font Generation [14.567067583556717]
フォントを自動生成する手法を導入する。
2つの異なるフォント間のフォントスタイルの違いを見つけ出し、ニューラルスタイル転送を用いて別のフォントに転送する。
論文 参考訳(メタデータ) (2020-01-21T03:32:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。