論文の概要: Font Style Interpolation with Diffusion Models
- arxiv url: http://arxiv.org/abs/2402.14311v1
- Date: Thu, 22 Feb 2024 06:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:14:21.335671
- Title: Font Style Interpolation with Diffusion Models
- Title(参考訳): 拡散モデルを用いたフォントスタイル補間
- Authors: Tetta Kondo, Shumpei Takezaki, Daichi Haraguchi, Seiichi Uchida
- Abstract要約: 異なるスタイルの参照フォントを補間することにより、拡散モデルを用いて新しいフォントスタイルを生成する。
3つの提案されたアプローチは、期待されるフォントスタイルだけでなく、いくらかセレンディピティーなフォントスタイルも生成できる。
- 参考スコア(独自算出の注目度): 6.7113569772720565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fonts have huge variations in their styles and give readers different
impressions. Therefore, generating new fonts is worthy of giving new
impressions to readers. In this paper, we employ diffusion models to generate
new font styles by interpolating a pair of reference fonts with different
styles. More specifically, we propose three different interpolation approaches,
image-blending, condition-blending, and noise-blending, with the diffusion
models. We perform qualitative and quantitative experimental analyses to
understand the style generation ability of the three approaches. According to
experimental results, three proposed approaches can generate not only expected
font styles but also somewhat serendipitous font styles. We also compare the
approaches with a state-of-the-art style-conditional Latin-font generative
network model to confirm the validity of using the diffusion models for the
style interpolation task.
- Abstract(参考訳): フォントはスタイルに大きなバリエーションがあり、読者に異なる印象を与える。
したがって、新しいフォントは読者に新しい印象を与える価値がある。
本稿では,異なるスタイルの参照フォントを補間することにより,拡散モデルを用いて新しいフォントスタイルを生成する。
具体的には,拡散モデルを用いた3種類の補間手法,画像ブレンディング,条件ブレンディング,ノイズブレンディングを提案する。
3つのアプローチのスタイル生成能力を理解するために,質的,定量的な実験分析を行う。
実験結果によると、3つの提案されたアプローチは、期待されるフォントスタイルだけでなく、セレンディピティーなフォントスタイルも生成できる。
また,提案手法を最先端の条件付きラテンフォント生成ネットワークモデルと比較し,拡散モデルを用いたスタイル補間作業の有効性を確認する。
関連論文リスト
- GRIF-DM: Generation of Rich Impression Fonts using Diffusion Models [18.15911470339845]
我々は、特定の印象を鮮明に具現化するフォントを生成するための拡散法である「usmethod」を導入する。
MyFontsデータセットを用いて,本手法が現実的で活気があり,高忠実なフォントを生成可能であることを確認した。
論文 参考訳(メタデータ) (2024-08-14T02:26:46Z) - FontStudio: Shape-Adaptive Diffusion Model for Coherent and Consistent Font Effect Generation [38.730628018627975]
本研究の目的は,多言語フォントにおけるテキストエフェクトの生成である。
与えられた形状を解釈できる新しい形状適応拡散モデルを提案する。
また、生成した参照文字から他へテクスチャを転送するための学習不要な形状適応型エフェクト転送手法を提案する。
論文 参考訳(メタデータ) (2024-06-12T16:43:47Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - FontDiffuser: One-Shot Font Generation via Denoising Diffusion with
Multi-Scale Content Aggregation and Style Contrastive Learning [45.696909070215476]
FontDiffuserは拡散に基づく画像から画像へのワンショットフォント生成手法である。
従来の方法と比較して、複雑な文字と大きなスタイルの変更を一貫して排他的に引き継いでいる。
論文 参考訳(メタデータ) (2023-12-19T13:23:20Z) - Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - FontNet: Closing the gap to font designer performance in font synthesis [3.991334489146843]
本稿では,フォント間の距離がフォント類似度と直接対応するような埋め込み空間において,フォントスタイルの分離を学習するFontNetというモデルを提案する。
我々は,任意の言語システムに適用可能なネットワークアーキテクチャと訓練手順を設計し,高解像度フォント画像を生成する。
論文 参考訳(メタデータ) (2022-05-13T08:37:10Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。