論文の概要: Few-shot Font Generation by Learning Style Difference and Similarity
- arxiv url: http://arxiv.org/abs/2301.10008v1
- Date: Tue, 24 Jan 2023 13:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:34:21.279436
- Title: Few-shot Font Generation by Learning Style Difference and Similarity
- Title(参考訳): 学習スタイルの違いと類似性によるマイナショットフォント生成
- Authors: Xiao He, Mingrui Zhu, Nannan Wang, Xinbo Gao and Heng Yang
- Abstract要約: 異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
- 参考スコア(独自算出の注目度): 84.76381937516356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot font generation (FFG) aims to preserve the underlying global
structure of the original character while generating target fonts by referring
to a few samples. It has been applied to font library creation, a personalized
signature, and other scenarios. Existing FFG methods explicitly disentangle
content and style of reference glyphs universally or component-wisely. However,
they ignore the difference between glyphs in different styles and the
similarity of glyphs in the same style, which results in artifacts such as
local distortions and style inconsistency. To address this issue, we propose a
novel font generation approach by learning the Difference between different
styles and the Similarity of the same style (DS-Font). We introduce contrastive
learning to consider the positive and negative relationship between styles.
Specifically, we propose a multi-layer style projector for style encoding and
realize a distinctive style representation via our proposed Cluster-level
Contrastive Style (CCS) loss. In addition, we design a multi-task patch
discriminator, which comprehensively considers different areas of the image and
ensures that each style can be distinguished independently. We conduct
qualitative and quantitative evaluations comprehensively to demonstrate that
our approach achieves significantly better results than state-of-the-art
methods.
- Abstract(参考訳): FFG (Few-shot font generation) は、少数のサンプルを参照してターゲットフォントを生成しながら、元の文字のグローバルな構造を維持することを目的としている。
フォントライブラリの作成、パーソナライズされた署名、その他のシナリオに適用されている。
既存のffgメソッドは、コンテンツと参照グリフのスタイルを普遍的またはコンポーネント的に明確に分離する。
しかし、異なるスタイルでのグリフの違いや同じスタイルでのグリフの類似性を無視し、局所的な歪曲やスタイルの不整合といった成果物を生み出している。
そこで本研究では,異なるスタイルと同一スタイルの類似性(DS-Font)の差分を学習し,新しいフォント生成手法を提案する。
スタイル間のポジティブな関係とネガティブな関係を考えるために、対比学習を導入する。
具体的には,スタイルエンコーディングのための多層型プロジェクタを提案し,提案するクラスタレベルコントラストスタイル(ccs)損失による特徴的スタイル表現を実現する。
さらに,画像の異なる領域を包括的に考慮し,各スタイルを独立して区別できるマルチタスクパッチ判別器を設計する。
本手法が最先端の手法よりもはるかに優れた結果が得られることを示すため,定性的かつ定量的な評価を包括的に実施する。
関連論文リスト
- DGFont++: Robust Deformable Generative Networks for Unsupervised Font
Generation [19.473023811252116]
教師なしフォント生成のための頑健な変形可能な生成ネットワークを提案する(略してDGFont++)。
異なるスタイルを区別するために、我々はマルチタスク判別器を用いてモデルを訓練し、それぞれのスタイルを独立して識別できるようにした。
実験により,本モデルは最先端手法よりも高品質なキャラクタ画像を生成することができることが示された。
論文 参考訳(メタデータ) (2022-12-30T14:35:10Z) - DSI2I: Dense Style for Unpaired Image-to-Image Translation [61.42001469770537]
Inpaired exemplar-based image-to-image (UEI2I) は、ソースイメージをターゲット画像領域に変換することを目的としている。
対照的に、我々はスタイルを高密度な特徴写像として表現し、外部のセマンティック情報を必要とせずに、よりきめ細かいソース画像への転送を可能にすることを提案する。
次に、知覚的・敵対的な損失に頼って、密集したスタイルとコンテンツ表現を混乱させ、教師なしのドメイン間セマンティック対応を利用して、模範的なスタイルをソースコンテンツにワープする。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Few-shot Font Generation with Weakly Supervised Localized
Representations [17.97183447033118]
ユニバーサルなスタイルではなく,局所的なスタイル,すなわちコンポーネントワイドなスタイル表現を学習する新しいフォント生成手法を提案する。
提案手法は,他の最先端手法よりも極めて優れたフォント生成結果(参照グリフが8つしかない)を示す。
論文 参考訳(メタデータ) (2021-12-22T14:26:53Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Language-Driven Image Style Transfer [72.36790598245096]
我々は、テキストでガイドされたコンテンツイメージのスタイルを操作するための新しいタスク、言語駆動型イメージスタイル転送(textttLDIST)を導入する。
識別器は、スタイルイメージの言語とパッチの相関や、変換された結果の相関を考慮し、スタイル命令を共同で埋め込む。
実験により, CLVAは有効であり, textttLDIST 上で超高速に転送された結果が得られた。
論文 参考訳(メタデータ) (2021-06-01T01:58:50Z) - Few-shot Font Generation with Localized Style Representations and
Factorization [23.781619323447003]
ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習し,新しいフォント生成手法を提案する。
提案手法は,8つの基準グリフ画像しか持たない少数のフォント生成結果が,他の最先端のフォントよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T10:33:01Z) - Automatic Generation of Chinese Handwriting via Fonts Style
Representation Learning [7.196855749519688]
このシステムは、潜在スタイル関連埋め込み変数によって新しいスタイルフォントを生成することができる。
本手法は他の方法よりもシンプルで効果的であり,フォント設計効率の向上に寄与する。
論文 参考訳(メタデータ) (2020-03-27T23:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。