論文の概要: Multiform Fonts-to-Fonts Translation via Style and Content Disentangled
Representations of Chinese Character
- arxiv url: http://arxiv.org/abs/2004.03338v1
- Date: Sat, 28 Mar 2020 04:30:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:19:06.888914
- Title: Multiform Fonts-to-Fonts Translation via Style and Content Disentangled
Representations of Chinese Character
- Title(参考訳): 漢字の文体と内容のアンタングル表現による多形フォント対フォント翻訳
- Authors: Fenxi Xiao, Jie Zhang, Bo Huang, Xia Wu
- Abstract要約: 本研究の目的は,文字の内容とスタイルを抽出・再結合できるネットワークフレームワークを設計することである。
本稿では、畳み込みニューラルネットワーク、多層パーセプトロン、残留ネットワークなどの様々な深度ネットワークを組み合わせて最適モデルを求める。
その結果、構造類似度指数とピーク信号対雑音比評価基準を用いて、生成した文字が実際の文字に非常に近いことを示す。
- 参考スコア(独自算出の注目度): 10.236778478360614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper mainly discusses the generation of personalized fonts as the
problem of image style transfer. The main purpose of this paper is to design a
network framework that can extract and recombine the content and style of the
characters. These attempts can be used to synthesize the entire set of fonts
with only a small amount of characters. The paper combines various depth
networks such as Convolutional Neural Network, Multi-layer Perceptron and
Residual Network to find the optimal model to extract the features of the fonts
character. The result shows that those characters we have generated is very
close to real characters, using Structural Similarity index and Peak
Signal-to-Noise Ratio evaluation criterions.
- Abstract(参考訳): 本稿では主にイメージスタイル転送の問題としてパーソナライズされたフォントの生成について論じる。
本研究の目的は,キャラクタの内容やスタイルを抽出・再結合可能なネットワークフレームワークを設計することである。
これらの試みは、少数の文字だけでフォント全体の合成に使用できる。
本稿では,畳み込みニューラルネットワーク,多層パーセプトロン,残留ネットワークなどの様々な深度ネットワークを組み合わせて,フォントの特徴を抽出する最適なモデルを求める。
その結果,構造的類似度指標とピーク信号対雑音比評価基準を用いて,生成した文字は実文字に非常に近いことがわかった。
関連論文リスト
- Decoupling Layout from Glyph in Online Chinese Handwriting Generation [6.566541829858544]
テキスト行レイアウト生成器とスタイル化フォント合成器を開発した。
レイアウトジェネレータは、テキスト内容と提供されたスタイル参照に基づいて、コンテキスト内学習を行い、各グリフに対する位置を自己回帰的に生成する。
文字埋め込み辞書、マルチスケールの書体スタイルエンコーダ、及び1DのU-Netベースの拡散デノイザからなるフォントシンセサイザは、所定のスタイル参照から抽出された書体スタイルを模倣しつつ、その位置に各フォントを生成する。
論文 参考訳(メタデータ) (2024-10-03T08:46:17Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Few-shot Font Generation with Localized Style Representations and
Factorization [23.781619323447003]
ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習し,新しいフォント生成手法を提案する。
提案手法は,8つの基準グリフ画像しか持たない少数のフォント生成結果が,他の最先端のフォントよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T10:33:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。