論文の概要: DGFont++: Robust Deformable Generative Networks for Unsupervised Font
Generation
- arxiv url: http://arxiv.org/abs/2212.14742v1
- Date: Fri, 30 Dec 2022 14:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 15:30:06.856013
- Title: DGFont++: Robust Deformable Generative Networks for Unsupervised Font
Generation
- Title(参考訳): DGFont++: 教師なしフォント生成のためのロバストな変形可能な生成ネットワーク
- Authors: Xinyuan Chen, Yangchen Xie, Li Sun and Yue Lu
- Abstract要約: 教師なしフォント生成のための頑健な変形可能な生成ネットワークを提案する(略してDGFont++)。
異なるスタイルを区別するために、我々はマルチタスク判別器を用いてモデルを訓練し、それぞれのスタイルを独立して識別できるようにした。
実験により,本モデルは最先端手法よりも高品質なキャラクタ画像を生成することができることが示された。
- 参考スコア(独自算出の注目度): 19.473023811252116
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automatic font generation without human experts is a practical and
significant problem, especially for some languages that consist of a large
number of characters. Existing methods for font generation are often in
supervised learning. They require a large number of paired data, which are
labor-intensive and expensive to collect. In contrast, common unsupervised
image-to-image translation methods are not applicable to font generation, as
they often define style as the set of textures and colors. In this work, we
propose a robust deformable generative network for unsupervised font generation
(abbreviated as DGFont++). We introduce a feature deformation skip connection
(FDSC) to learn local patterns and geometric transformations between fonts. The
FDSC predicts pairs of displacement maps and employs the predicted maps to
apply deformable convolution to the low-level content feature maps. The outputs
of FDSC are fed into a mixer to generate final results. Moreover, we introduce
contrastive self-supervised learning to learn a robust style representation for
fonts by understanding the similarity and dissimilarities of fonts. To
distinguish different styles, we train our model with a multi-task
discriminator, which ensures that each style can be discriminated
independently. In addition to adversarial loss, another two reconstruction
losses are adopted to constrain the domain-invariant characteristics between
generated images and content images. Taking advantage of FDSC and the adopted
loss functions, our model is able to maintain spatial information and generates
high-quality character images in an unsupervised manner. Experiments
demonstrate that our model is able to generate character images of higher
quality than state-of-the-art methods.
- Abstract(参考訳): 人間の専門家がいない自動フォント生成は実用的で重大な問題であり、特に多数の文字からなる言語では問題となる。
フォント生成の既存の方法は、しばしば教師付き学習である。
膨大な数のペアデータが必要ですが、収集には労力とコストがかかります。
対照的に、一般的な教師なし画像から画像への変換方法はフォント生成には適用されない。
本研究では,教師なしフォント生成のための頑健な変形可能な生成ネットワーク(DGFont++)を提案する。
フォント間の局所パターンや幾何学的変換を学習するための特徴変形スキップ接続(FDSC)を提案する。
FDSCは、一対の変位マップを予測し、予測マップを用いて、低レベルのコンテンツ特徴マップに変形可能な畳み込みを適用する。
FDSCの出力をミキサーに供給して最終結果を生成する。
さらに,フォントの類似性と類似性を理解することにより,フォントのロバストなスタイル表現を学ぶために,対照的自己教師付き学習を導入する。
異なるスタイルを区別するために、マルチタスク判別器でモデルを訓練し、各スタイルを独立して判別できるようにします。
逆損失に加えて、生成画像とコンテンツ画像間のドメイン不変特性を制限するために、別の2つの再構成損失が採用されている。
FDSCとそれを用いた損失関数の活用により,空間情報を維持し,教師なしで高品質なキャラクタ画像を生成することができる。
実験により,本モデルは最先端手法よりも高品質なキャラクタ画像を生成することができることを示した。
関連論文リスト
- JoyType: A Robust Design for Multilingual Visual Text Creation [14.441897362967344]
複数言語によるビジュアルテキスト作成のための新しい手法JoyTypeを紹介した。
JoyTypeは、画像生成プロセス中にテキストのフォントスタイルを維持するように設計されている。
実測値と精度の両面から評価した結果,JoyTypeが既存の最先端手法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-26T04:23:17Z) - FontDiffuser: One-Shot Font Generation via Denoising Diffusion with
Multi-Scale Content Aggregation and Style Contrastive Learning [45.696909070215476]
FontDiffuserは拡散に基づく画像から画像へのワンショットフォント生成手法である。
従来の方法と比較して、複雑な文字と大きなスタイルの変更を一貫して排他的に引き継いでいる。
論文 参考訳(メタデータ) (2023-12-19T13:23:20Z) - DS-Fusion: Artistic Typography via Discriminated and Stylized Diffusion [10.75789076591325]
1つ以上の文字フォントをスタイリングすることで,芸術的タイポグラフィーを自動的に生成する新しい手法を提案する。
提案手法では,大規模言語モデルを用いてテキストや視覚画像をブリッジしてスタイリングし,教師なし生成モデルを構築する。
論文 参考訳(メタデータ) (2023-03-16T19:12:52Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - DG-Font: Deformable Generative Networks for Unsupervised Font Generation [14.178381391124036]
非監視フォント生成(DGFont)のための新しい変形可能な生成ネットワークを提案する。
本稿では,一対の変位マップを予測し,予測地図を用いてコンテンツエンコーダからの低レベル特徴マップに変形可能な畳み込みを適用する特徴変形スキップ接続(fdsc)を提案する。
実験により,本モデルが最先端手法よりも高品質な文字を生成することを実証した。
論文 参考訳(メタデータ) (2021-04-07T11:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。