論文の概要: Font Style Interpolation with Diffusion Models
- arxiv url: http://arxiv.org/abs/2402.14311v1
- Date: Thu, 22 Feb 2024 06:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:14:21.335671
- Title: Font Style Interpolation with Diffusion Models
- Title(参考訳): 拡散モデルを用いたフォントスタイル補間
- Authors: Tetta Kondo, Shumpei Takezaki, Daichi Haraguchi, Seiichi Uchida
- Abstract要約: 異なるスタイルの参照フォントを補間することにより、拡散モデルを用いて新しいフォントスタイルを生成する。
3つの提案されたアプローチは、期待されるフォントスタイルだけでなく、いくらかセレンディピティーなフォントスタイルも生成できる。
- 参考スコア(独自算出の注目度): 6.7113569772720565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fonts have huge variations in their styles and give readers different
impressions. Therefore, generating new fonts is worthy of giving new
impressions to readers. In this paper, we employ diffusion models to generate
new font styles by interpolating a pair of reference fonts with different
styles. More specifically, we propose three different interpolation approaches,
image-blending, condition-blending, and noise-blending, with the diffusion
models. We perform qualitative and quantitative experimental analyses to
understand the style generation ability of the three approaches. According to
experimental results, three proposed approaches can generate not only expected
font styles but also somewhat serendipitous font styles. We also compare the
approaches with a state-of-the-art style-conditional Latin-font generative
network model to confirm the validity of using the diffusion models for the
style interpolation task.
- Abstract(参考訳): フォントはスタイルに大きなバリエーションがあり、読者に異なる印象を与える。
したがって、新しいフォントは読者に新しい印象を与える価値がある。
本稿では,異なるスタイルの参照フォントを補間することにより,拡散モデルを用いて新しいフォントスタイルを生成する。
具体的には,拡散モデルを用いた3種類の補間手法,画像ブレンディング,条件ブレンディング,ノイズブレンディングを提案する。
3つのアプローチのスタイル生成能力を理解するために,質的,定量的な実験分析を行う。
実験結果によると、3つの提案されたアプローチは、期待されるフォントスタイルだけでなく、セレンディピティーなフォントスタイルも生成できる。
また,提案手法を最先端の条件付きラテンフォント生成ネットワークモデルと比較し,拡散モデルを用いたスタイル補間作業の有効性を確認する。
関連論文リスト
- FontDiffuser: One-Shot Font Generation via Denoising Diffusion with
Multi-Scale Content Aggregation and Style Contrastive Learning [45.696909070215476]
FontDiffuserは拡散に基づく画像から画像へのワンショットフォント生成手法である。
従来の方法と比較して、複雑な文字と大きなスタイルの変更を一貫して排他的に引き継いでいる。
論文 参考訳(メタデータ) (2023-12-19T13:23:20Z) - Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - ControlStyle: Text-Driven Stylized Image Generation Using Diffusion
Priors [105.37795139586075]
そこで本研究では,テキスト駆動型スタイリング画像生成という,テキスト・イメージ・モデルをスタイリングするための新しいタスクを提案する。
トレーニング可能な変調ネットワークで事前訓練されたテキスト・ツー・イメージモデルをアップグレードすることで,新しい拡散モデル(ControlStyle)を提案する。
実験では、より視覚的で芸術的な結果を生み出すためのコントロールスタイルの有効性が示されています。
論文 参考訳(メタデータ) (2023-11-09T15:50:52Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Arbitrary Style Guidance for Enhanced Diffusion-Based Text-to-Image
Generation [13.894251782142584]
GLIDE や DALLE-2 のような拡散ベースのテキスト・画像生成モデルは近年広く成功している。
本稿では,参照画像でガイドされた任意のスタイルを用いた画像生成を支援する新しいスタイルガイダンス手法を提案する。
論文 参考訳(メタデータ) (2022-11-14T20:52:57Z) - FontNet: Closing the gap to font designer performance in font synthesis [3.991334489146843]
本稿では,フォント間の距離がフォント類似度と直接対応するような埋め込み空間において,フォントスタイルの分離を学習するFontNetというモデルを提案する。
我々は,任意の言語システムに適用可能なネットワークアーキテクチャと訓練手順を設計し,高解像度フォント画像を生成する。
論文 参考訳(メタデータ) (2022-05-13T08:37:10Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。