論文の概要: Text and Style Conditioned GAN for Generation of Offline Handwriting
Lines
- arxiv url: http://arxiv.org/abs/2009.00678v1
- Date: Tue, 1 Sep 2020 20:19:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:38:12.979368
- Title: Text and Style Conditioned GAN for Generation of Offline Handwriting
Lines
- Title(参考訳): オフライン手書き線生成のためのテキストとスタイル条件付きGAN
- Authors: Brian Davis, Chris Tensmeyer, Brian Price, Curtis Wigington, Bryan
Morse, Rajiv Jain
- Abstract要約: 本稿では,任意のテキストと潜在型ベクトルに条件付き手書き行の画像を生成するためのGANを提案する。
人間の評価器を用いた研究は、モデルが人間によって書かれたように見える画像を生成することを示した。
- 参考スコア(独自算出の注目度): 11.763796019348847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a GAN for generating images of handwritten lines
conditioned on arbitrary text and latent style vectors. Unlike prior work,
which produce stroke points or single-word images, this model generates entire
lines of offline handwriting. The model produces variable-sized images by using
style vectors to determine character widths. A generator network is trained
with GAN and autoencoder techniques to learn style, and uses a pre-trained
handwriting recognition network to induce legibility. A study using human
evaluators demonstrates that the model produces images that appear to be
written by a human. After training, the encoder network can extract a style
vector from an image, allowing images in a similar style to be generated, but
with arbitrary text.
- Abstract(参考訳): 本稿では,任意のテキストと潜在型ベクトルに条件付き手書き行の画像を生成するためのGANを提案する。
ストロークポイントやシングルワード画像を生成する以前の作業とは異なり、このモデルはオフライン手書きの全行を生成する。
モデルは、スタイルベクトルを用いて文字幅を決定することにより、可変サイズの画像を生成する。
ジェネレータネットワークはganとオートエンコーダ技術を用いてスタイルを学習し、事前訓練された手書き認識ネットワークを使用して正当性を誘導する。
人間の評価器を用いた研究は、モデルが人間によって書かれたように見える画像を生成することを示した。
訓練後、エンコーダネットワークは画像からスタイルベクトルを抽出し、類似したスタイルの画像を任意のテキストで生成することができる。
関連論文リスト
- Decoupling Layout from Glyph in Online Chinese Handwriting Generation [6.566541829858544]
テキスト行レイアウト生成器とスタイル化フォント合成器を開発した。
レイアウトジェネレータは、テキスト内容と提供されたスタイル参照に基づいて、コンテキスト内学習を行い、各グリフに対する位置を自己回帰的に生成する。
文字埋め込み辞書、マルチスケールの書体スタイルエンコーダ、及び1DのU-Netベースの拡散デノイザからなるフォントシンセサイザは、所定のスタイル参照から抽出された書体スタイルを模倣しつつ、その位置に各フォントを生成する。
論文 参考訳(メタデータ) (2024-10-03T08:46:17Z) - Visual Captioning at Will: Describing Images and Videos Guided by a Few
Stylized Sentences [49.66987347397398]
Few-Shot Stylized Visual Captioningは,任意のスタイルでキャプションを生成することを目的としている。
本稿では,条件付きエンコーダ-デコーダ言語モデルとビジュアルプロジェクションモジュールを用いたFS-StyleCapというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-31T04:26:01Z) - WordStylist: Styled Verbatim Handwritten Text Generation with Latent
Diffusion Models [8.334487584550185]
単語レベルに基づくテキスト・テキスト・コンテンツ・イメージ生成のための遅延拡散に基づく手法を提案する。
提案手法は,異なる書き手スタイルからリアルな単語画像のサンプルを生成することができる。
提案モデルでは,美的満足度の高いサンプルを作成し,テキスト認識性能の向上に寄与し,類似の文字検索スコアを実データとして得られることを示す。
論文 参考訳(メタデータ) (2023-03-29T10:19:26Z) - Handwritten Text Generation from Visual Archetypes [25.951540903019467]
Few-Shotスタイルの手書きテキスト生成のためのTransformerベースのモデルを提案する。
我々は,大規模な合成データセット上で,特定の事前学習を活用することで,目に見えない作者の書跡の堅牢な表現を得る。
論文 参考訳(メタデータ) (2023-03-27T14:58:20Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Content and Style Aware Generation of Text-line Images for Handwriting
Recognition [4.301658883577544]
視覚的外観とテキストコンテンツの両方を条件とした手書きテキストライン画像の生成法を提案する。
本手法では,多彩な手書きスタイルの長いテキストラインサンプルを作成できる。
論文 参考訳(メタデータ) (2022-04-12T05:52:03Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - Handwriting Transformers [98.3964093654716]
本稿では,スタイルコンテンツの絡み合いとグローバルおよびローカルライティングスタイルパターンの両方を学ぶことを目的とした,トランスフォーマティブベースの手書きテキスト画像生成手法であるhwtを提案する。
提案したHWTは, 自己認識機構を用いて, スタイルの例における長短距離関係をキャプチャする。
提案するHWTは,現実的な手書きテキスト画像を生成する。
論文 参考訳(メタデータ) (2021-04-08T17:59:43Z) - StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery [71.1862388442953]
StyleGAN画像操作のためのテキストベースのインターフェースを開発しています。
まず,ユーザが提案するテキストプロンプトに応答して,CLIPに基づく損失を利用して入力潜時ベクトルを変更する最適化手法を提案する。
次に、与えられた入力画像に対してテキスト誘導の潜時操作ステップを推論し、より高速で安定したテキストベースの操作を可能にする潜時マッパーについて述べる。
論文 参考訳(メタデータ) (2021-03-31T17:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。