論文の概要: Neural Style Difference Transfer and Its Application to Font Generation
- arxiv url: http://arxiv.org/abs/2001.07321v1
- Date: Tue, 21 Jan 2020 03:32:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 23:34:33.616144
- Title: Neural Style Difference Transfer and Its Application to Font Generation
- Title(参考訳): ニューラルスタイルの違い伝達とフォント生成への応用
- Authors: Gantugs Atarsaikhan, Brian Kenji Iwana and Seiichi Uchida
- Abstract要約: フォントを自動生成する手法を導入する。
2つの異なるフォント間のフォントスタイルの違いを見つけ出し、ニューラルスタイル転送を用いて別のフォントに転送する。
- 参考スコア(独自算出の注目度): 14.567067583556717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing fonts requires a great deal of time and effort. It requires
professional skills, such as sketching, vectorizing, and image editing.
Additionally, each letter has to be designed individually. In this paper, we
will introduce a method to create fonts automatically. In our proposed method,
the difference of font styles between two different fonts is found and
transferred to another font using neural style transfer. Neural style transfer
is a method of stylizing the contents of an image with the styles of another
image. We proposed a novel neural style difference and content difference loss
for the neural style transfer. With these losses, new fonts can be generated by
adding or removing font styles from a font. We provided experimental results
with various combinations of input fonts and discussed limitations and future
development for the proposed method.
- Abstract(参考訳): フォントの設計には多くの時間と労力が必要です。
スケッチ、ベクトル化、画像編集といった専門的なスキルが必要です。
さらに、各文字を個別に設計する必要がある。
本稿では,フォントを自動的に作成する手法を紹介する。
提案手法では,2つの異なるフォント間のフォントスタイルの違いを発見し,ニューラルスタイル転送を用いて別のフォントに転送する。
ニューラルスタイル転送(Neural style transfer)は、画像の内容を他の画像のスタイルでスタイリングする方法である。
そこで我々はニューラルスタイル変換のための新しいニューラルスタイル差と内容差損失を提案する。
これらの損失により、フォントからフォントスタイルを追加または削除することで、新しいフォントを生成することができる。
入力フォントの様々な組み合わせによる実験結果を提供し,提案手法の限界と今後の発展について考察した。
関連論文リスト
- FontDiffuser: One-Shot Font Generation via Denoising Diffusion with
Multi-Scale Content Aggregation and Style Contrastive Learning [45.696909070215476]
FontDiffuserは拡散に基づく画像から画像へのワンショットフォント生成手法である。
従来の方法と比較して、複雑な文字と大きなスタイルの変更を一貫して排他的に引き継いでいる。
論文 参考訳(メタデータ) (2023-12-19T13:23:20Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Font Representation Learning via Paired-glyph Matching [15.358456947574913]
本稿では,フォントスタイルを潜在空間に埋め込む新しいフォント表現学習手法を提案する。
フォントを他者から識別的に表現するために,マッチングに基づくフォント表現学習モデルを提案する。
フォント表現学習方式は,既存のフォント表現学習手法よりも優れた一般化性能が得られることを示す。
論文 参考訳(メタデータ) (2022-11-20T12:27:27Z) - FontNet: Closing the gap to font designer performance in font synthesis [3.991334489146843]
本稿では,フォント間の距離がフォント類似度と直接対応するような埋め込み空間において,フォントスタイルの分離を学習するFontNetというモデルを提案する。
我々は,任意の言語システムに適用可能なネットワークアーキテクチャと訓練手順を設計し,高解像度フォント画像を生成する。
論文 参考訳(メタデータ) (2022-05-13T08:37:10Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Automatic Generation of Chinese Handwriting via Fonts Style
Representation Learning [7.196855749519688]
このシステムは、潜在スタイル関連埋め込み変数によって新しいスタイルフォントを生成することができる。
本手法は他の方法よりもシンプルで効果的であり,フォント設計効率の向上に寄与する。
論文 参考訳(メタデータ) (2020-03-27T23:34:01Z) - Character-independent font identification [11.86456063377268]
2文字が同一フォントであるか否かを判定する手法を提案する。
我々は様々なフォントイメージペアで訓練された畳み込みニューラルネットワーク(CNN)を用いる。
次に、ネットワークに見つからないフォントの異なるセットでモデルを評価する。
論文 参考訳(メタデータ) (2020-01-24T05:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。