論文の概要: Character Generation through Self-Supervised Vectorization
- arxiv url: http://arxiv.org/abs/2208.02012v1
- Date: Wed, 3 Aug 2022 12:31:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:15:15.937833
- Title: Character Generation through Self-Supervised Vectorization
- Title(参考訳): 自己監督ベクトル化による文字生成
- Authors: Gokcen Gokceoglu and Emre Akbas
- Abstract要約: 画像のストロークレベル表現で動作する描画エージェントを提案する。
描画」判定を行うと、エージェントは、描画すべきストロークを示すプログラムを出力する。
本研究は,3世代全てのタスクと解析タスクについて,成功した結果を示す。
- 参考スコア(独自算出の注目度): 9.36599317326032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prevalent approach in self-supervised image generation is to operate on
pixel level representations. While this approach can produce high quality
images, it cannot benefit from the simplicity and innate quality of
vectorization. Here we present a drawing agent that operates on stroke-level
representation of images. At each time step, the agent first assesses the
current canvas and decides whether to stop or keep drawing. When a 'draw'
decision is made, the agent outputs a program indicating the stroke to be
drawn. As a result, it produces a final raster image by drawing the strokes on
a canvas, using a minimal number of strokes and dynamically deciding when to
stop. We train our agent through reinforcement learning on MNIST and Omniglot
datasets for unconditional generation and parsing (reconstruction) tasks. We
utilize our parsing agent for exemplar generation and type conditioned concept
generation in Omniglot challenge without any further training. We present
successful results on all three generation tasks and the parsing task.
Crucially, we do not need any stroke-level or vector supervision; we only use
raster images for training.
- Abstract(参考訳): 自己教師付き画像生成における一般的なアプローチは、ピクセルレベルの表現を操作することである。
このアプローチは高品質な画像を生成することができるが、ベクトル化の単純さと本質の恩恵を受けることはできない。
本稿では,画像のストロークレベル表現で動作する描画エージェントを提案する。
各時間ステップで、エージェントはまず現在のキャンバスを評価し、停止するか、描画を維持するかを決定する。
ドロー」が決定されると、エージェントは、描画するストロークを示すプログラムを出力する。
その結果、キャンバス上にストロークを描画し、最小数のストロークを用いて、いつ停止するかを動的に決定し、最終的なラスタ画像を生成する。
mnistとomniglotデータセットの強化学習を通じてエージェントを訓練し,無条件生成と解析(再構築)を行う。
我々は,Omniglot Challengeにおける模範生成と型条件付き概念生成に解析エージェントを利用する。
3世代すべてのタスクと解析タスクで成功した結果を示す。
重要なのは、ストロークレベルやベクトルの監督は必要ありません。トレーニングにはrasterイメージのみを使用します。
関連論文リスト
- VQ-SGen: A Vector Quantized Stroke Representation for Sketch Generation [12.486307321835909]
VQ-SGenは、高品質なスケッチ生成のための新しいアルゴリズムである。
トークン化されたストローク表現を利用することで,高い忠実度を有するストロークを生成する。
論文 参考訳(メタデータ) (2024-11-25T14:51:22Z) - Unsupervised Deep Learning Image Verification Method [0.0]
提案手法は,Wildデータセットのラベル付き顔のベースラインシステムよりもEERの56%の相対的な改善を実現している。
これにより、コサインとPLDAのスコアリングシステムのパフォーマンスギャップを狭めることに成功した。
論文 参考訳(メタデータ) (2023-12-22T02:52:54Z) - MAGE: MAsked Generative Encoder to Unify Representation Learning and
Image Synthesis [33.46831766206675]
MASked Generative (MAGE)は、SOTA画像生成と自己教師付き表現学習を統合するための最初のフレームワークである。
以前の生成モデルにインスパイアされたMAGEは、入力と出力でベクトル量子化されたGANによって学習された意味トークンを使用する。
ImageNet-1Kでは、1つのMAGE ViT-Lモデルがクラス非条件画像生成のタスクで9.10 FIDを得る。
論文 参考訳(メタデータ) (2022-11-16T18:59:02Z) - Learning to Annotate Part Segmentation with Gradient Matching [58.100715754135685]
本稿では,事前学習したGANを用いて,高品質な画像を生成することで,半教師付き部分分割タスクに対処することに焦点を当てる。
特に、アノテータ学習を学習から学習までの問題として定式化する。
提案手法は,実画像,生成された画像,さらには解析的に描画された画像を含む,幅広いラベル付き画像からアノテータを学習可能であることを示す。
論文 参考訳(メタデータ) (2022-11-06T01:29:22Z) - Drawing out of Distribution with Neuro-Symbolic Generative Models [49.79371715591122]
ドローイング・アウト・オブ・ディストリクト(英: Drawing out of Distribution)は、ストローク・ベース・ドローイングの神経象徴的生成モデルである。
DooDは画像を直接操作するが、監視や高価なテストタイム推論は必要ない。
我々は、データとタスクをまたいだ一般化能力について、DooDを評価した。
論文 参考訳(メタデータ) (2022-06-03T21:40:22Z) - Cluster-guided Image Synthesis with Unconditional Models [41.89334167530054]
本研究は、教師なし方式でよく訓練されたGANを活用することにより、制御可能な画像生成に焦点を当てる。
クラスタ割り当てを条件付けすることで、提案手法は生成された画像の意味クラスを制御することができる。
顔(CelebA-HQとFFHQ)、動物(Imagenet)、オブジェクト(LSUN)に対するアプローチの有効性を,異なる事前学習生成モデルを用いて示す。
論文 参考訳(メタデータ) (2021-12-24T02:18:34Z) - EdiBERT, a generative model for image editing [12.605607949417033]
EdiBERTは、ベクトル量子化オートエンコーダによって構築された離散潜在空間で訓練された双方向変換器である。
結果のモデルが,多種多様なタスクにおける最先端のパフォーマンスと一致することを示す。
論文 参考訳(メタデータ) (2021-11-30T10:23:06Z) - Heredity-aware Child Face Image Generation with Latent Space
Disentanglement [96.92684978356425]
本研究では,子育てに先立つ親のイメージに基づいて子どものイメージを生成するための,子育てという新しいアプローチを提案する。
第一の考え方は、事前訓練された生成モデルの潜伏空間を乱し、明確な意味論で児童画像の顔属性を正確に制御することである。
論文 参考訳(メタデータ) (2021-08-25T06:59:43Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - B\'ezierSketch: A generative model for scalable vector sketches [132.5223191478268]
B'ezierSketchは、完全ベクトルスケッチのための新しい生成モデルであり、自動的にスケーラブルで高解像度である。
まず,各ストロークを最適なB'ezier曲線に埋め込むようにエンコーダを訓練する。
これにより、スケッチをパラマタライズされたストロークの短いシーケンスとして扱うことができ、これにより、より長いスケッチのために、より多くのキャパシティを持つ再帰的なスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2020-07-04T21:30:52Z) - SketchyCOCO: Image Generation from Freehand Scene Sketches [71.85577739612579]
本稿では,シーンレベルのフリーハンドスケッチから画像の自動生成手法を提案する。
主要なコントリビューションは、EdgeGANと呼ばれる属性ベクトルをブリッジしたGeneversarative Adrial Networkである。
我々はSketchyCOCOと呼ばれる大規模複合データセットを構築し、ソリューションをサポートし評価した。
論文 参考訳(メタデータ) (2020-03-05T14:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。