論文の概要: Towards Diverse and Consistent Typography Generation
- arxiv url: http://arxiv.org/abs/2309.02099v1
- Date: Tue, 5 Sep 2023 10:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 15:21:31.827002
- Title: Towards Diverse and Consistent Typography Generation
- Title(参考訳): 多様性と一貫性のタイポグラフィー生成に向けて
- Authors: Wataru Shimoda, Daichi Haraguchi, Seiichi Uchida, Kota Yamaguchi
- Abstract要約: 複数のテキスト要素に対する微粒な属性生成としてタイポグラフィ生成を定式化する。
入力設計コンテキストにマッチする多様なタイポグラフィを生成するために,自動回帰モデルを構築した。
- 参考スコア(独自算出の注目度): 15.300255326619203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we consider the typography generation task that aims at
producing diverse typographic styling for the given graphic document. We
formulate typography generation as a fine-grained attribute generation for
multiple text elements and build an autoregressive model to generate diverse
typography that matches the input design context. We further propose a simple
yet effective sampling approach that respects the consistency and distinction
principle of typography so that generated examples share consistent typographic
styling across text elements. Our empirical study shows that our model
successfully generates diverse typographic designs while preserving a
consistent typographic structure.
- Abstract(参考訳): 本稿では,与えられた図形文書に対して多様なタイポグラフィースタイルを作成することを目的としたタイポグラフィ生成タスクについて考察する。
複数のテキスト要素に対する微粒な属性生成としてタイポグラフィ生成を定式化し、入力設計コンテキストにマッチする多様なタイポグラフィを生成する自己回帰モデルを構築する。
さらに,タイポグラフィの一貫性と区別の原則を尊重し,テキスト要素間で一貫したタイポグラフィスタイリングを共有する,簡易かつ効果的なサンプリング手法を提案する。
実験の結果,本モデルは一貫性のあるタイポグラフィ構造を維持しつつ,多様なタイポグラフィデザインをうまく生成できることがわかった。
関連論文リスト
- Pick-and-Draw: Training-free Semantic Guidance for Text-to-Image
Personalization [56.12990759116612]
Pick-and-Drawは、パーソナライズ手法のアイデンティティ一貫性と生成多様性を高めるためのトレーニング不要なセマンティックガイダンスアプローチである。
提案手法は、パーソナライズされた拡散モデルに適用可能であり、単一の参照画像のみを必要とする。
論文 参考訳(メタデータ) (2024-01-30T05:56:12Z) - TypeDance: Creating Semantic Typographic Logos from Image through
Personalized Generation [30.692297222444726]
本稿では,デザインの合理性を考慮したAI支援ツールであるTypeDanceについて,パーソナライズされたセマンティックタイポグラフィロゴ設計のための生成モデルを提案する。
模倣と作成を含む2タスクのユーザ評価により、さまざまな利用シナリオにおける設計におけるTypeDanceのユーザビリティが確認された。
論文 参考訳(メタデータ) (2024-01-20T02:55:11Z) - Style Generation in Robot Calligraphy with Deep Generative Adversarial
Networks [15.199472080437527]
漢字の数は数万であり、6000文字を超える一貫した漢字フォントの生成が困難になる。
本稿では,プロの規格で書体を生成可能な,深層生成逆数ネットワーク(deepGAN)に基づく自動書体生成モデルを提案する。
論文 参考訳(メタデータ) (2023-12-15T10:35:30Z) - The Chosen One: Consistent Characters in Text-to-Image Diffusion Models [71.15152184631951]
そこで本研究では,テキストプロンプトのみを入力として,一貫した文字生成を完全自動化する手法を提案する。
本手法は, 基本手法と比較して, 即時アライメントと同一性整合性のバランスが良くなる。
論文 参考訳(メタデータ) (2023-11-16T18:59:51Z) - GlyphDiffusion: Text Generation as Image Generation [100.98428068214736]
テキスト誘導画像生成によるテキスト生成のための新しい拡散手法であるGlyphDiffusionを提案する。
私たちのキーとなるアイデアは、ターゲットのテキストを視覚言語コンテンツを含むグリフイメージとしてレンダリングすることです。
また,本モデルでは,近年の拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-25T02:14:44Z) - Handwritten Text Generation from Visual Archetypes [25.951540903019467]
Few-Shotスタイルの手書きテキスト生成のためのTransformerベースのモデルを提案する。
我々は,大規模な合成データセット上で,特定の事前学習を活用することで,目に見えない作者の書跡の堅牢な表現を得る。
論文 参考訳(メタデータ) (2023-03-27T14:58:20Z) - DS-Fusion: Artistic Typography via Discriminated and Stylized Diffusion [10.75789076591325]
1つ以上の文字フォントをスタイリングすることで,芸術的タイポグラフィーを自動的に生成する新しい手法を提案する。
提案手法では,大規模言語モデルを用いてテキストや視覚画像をブリッジしてスタイリングし,教師なし生成モデルを構築する。
論文 参考訳(メタデータ) (2023-03-16T19:12:52Z) - Content and Style Aware Generation of Text-line Images for Handwriting
Recognition [4.301658883577544]
視覚的外観とテキストコンテンツの両方を条件とした手書きテキストライン画像の生成法を提案する。
本手法では,多彩な手書きスタイルの長いテキストラインサンプルを作成できる。
論文 参考訳(メタデータ) (2022-04-12T05:52:03Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z) - Handwriting Transformers [98.3964093654716]
本稿では,スタイルコンテンツの絡み合いとグローバルおよびローカルライティングスタイルパターンの両方を学ぶことを目的とした,トランスフォーマティブベースの手書きテキスト画像生成手法であるhwtを提案する。
提案したHWTは, 自己認識機構を用いて, スタイルの例における長短距離関係をキャプチャする。
提案するHWTは,現実的な手書きテキスト画像を生成する。
論文 参考訳(メタデータ) (2021-04-08T17:59:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。