論文の概要: Generating Novel Glyph without Human Data by Learning to Communicate
- arxiv url: http://arxiv.org/abs/2010.04402v2
- Date: Sun, 22 Nov 2020 12:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 04:30:04.206540
- Title: Generating Novel Glyph without Human Data by Learning to Communicate
- Title(参考訳): コミュニケーション学習による人的データのない新しいグリフの生成
- Authors: Seung-won Park
- Abstract要約: トレーニングデータなしで新しいグリフを生成するシステムを提案する。
提案手法は人造グリフに類似したグリフであり,既存のグリフの視覚的外観は書面によるコミュニケーションの制約に起因していると考えられる。
- 参考スコア(独自算出の注目度): 1.4213973379473654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present Neural Glyph, a system that generates novel glyph
without any training data. The generator and the classifier are trained to
communicate via visual symbols as a medium, which enforces the generator to
come up with a set of distinctive symbols. Our method results in glyphs that
resemble the human-made glyphs, which may imply that the visual appearances of
existing glyphs can be attributed to constraints of communication via writing.
Important tricks that enable this framework are described and the code is made
available.
- Abstract(参考訳): 本稿では,トレーニングデータなしで新しいグリフを生成するシステムであるneural glyphを提案する。
生成器と分類器は、視覚的シンボルを媒介として通信するように訓練され、生成器は固有のシンボルのセットを作成するように強制される。
提案手法は人造グリフに類似したグリフであり,既存のグリフの視覚的外観は書面によるコミュニケーションの制約に起因していると考えられる。
このフレームワークを実現する重要なトリックが説明され、コードが利用可能になる。
関連論文リスト
- Decoupling Layout from Glyph in Online Chinese Handwriting Generation [6.566541829858544]
テキスト行レイアウト生成器とスタイル化フォント合成器を開発した。
レイアウトジェネレータは、テキスト内容と提供されたスタイル参照に基づいて、コンテキスト内学習を行い、各グリフに対する位置を自己回帰的に生成する。
文字埋め込み辞書、マルチスケールの書体スタイルエンコーダ、及び1DのU-Netベースの拡散デノイザからなるフォントシンセサイザは、所定のスタイル参照から抽出された書体スタイルを模倣しつつ、その位置に各フォントを生成する。
論文 参考訳(メタデータ) (2024-10-03T08:46:17Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - GlyphDiffusion: Text Generation as Image Generation [100.98428068214736]
テキスト誘導画像生成によるテキスト生成のための新しい拡散手法であるGlyphDiffusionを提案する。
私たちのキーとなるアイデアは、ターゲットのテキストを視覚言語コンテンツを含むグリフイメージとしてレンダリングすることです。
また,本モデルでは,近年の拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-25T02:14:44Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - GlyphCRM: Bidirectional Encoder Representation for Chinese Character
with its Glyph [31.723483415041347]
以前は、漢字のグリフには豊かな意味情報が含まれていることが示唆されていた。
我々は,Glyph CRMという名前の中国語事前学習表現モデルを提案する。
IDベースの文字埋め込みを放棄するが、シーケンシャルな文字画像のみをベースとしている。
論文 参考訳(メタデータ) (2021-07-01T12:14:05Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Few-Shot Font Generation with Deep Metric Learning [33.12829580813688]
提案するフレームワークは、スタイルエンコーダにディープメトリック学習を導入している。
白黒フォントと形状識別フォントのデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-11-04T10:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。