論文の概要: GAN-CNMP: An Interactive Generative Drawing Tool
- arxiv url: http://arxiv.org/abs/2111.14934v1
- Date: Mon, 29 Nov 2021 20:20:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 13:27:55.584358
- Title: GAN-CNMP: An Interactive Generative Drawing Tool
- Title(参考訳): GAN-CNMP:インタラクティブな生成描画ツール
- Authors: S. Ece Ada, M. Yunus Seker, Pinar Yanardag
- Abstract要約: 我々は、スケッチの滑らかさと一貫性を高めるために、CNMPに新たな敵損失を組み込んだ新しいフレームワーク、GAN-CNMPを提案する。
我々のモデルはラベルのないサンプルで訓練でき、潜在空間で自動的に分布を構築でき、形状の整合性や滑らかさの観点からはベースモデルよりも優れた結果が得られる。
- 参考スコア(独自算出の注目度): 0.9926231893220063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sketches are abstract representations of visual perception and visuospatial
construction. In this work, we proposed a new framework, GAN-CNMP, that
incorporates a novel adversarial loss on CNMP to increase sketch smoothness and
consistency. Through the experiments, we show that our model can be trained
with few unlabeled samples, can construct distributions automatically in the
latent space, and produces better results than the base model in terms of shape
consistency and smoothness.
- Abstract(参考訳): スケッチは視覚知覚と視覚構成の抽象表現である。
そこで本研究では,スケッチのスムーズさと一貫性を高めるために,CNMPに新たな敵対的損失をもたらす新しいフレームワークであるGAN-CNMPを提案する。
実験により,本モデルは,少数の未ラベルサンプルを用いてトレーニングし,潜在空間で自動的に分布を構築し,形状の整合性や滑らかさの観点から,ベースモデルよりも優れた結果が得られることを示した。
関連論文リスト
- U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - SketchGPT: Autoregressive Modeling for Sketch Generation and Recognition [4.6519578789100215]
SketchGPTはフレキシブルなフレームワークで、シーケンスからシーケンスへの自動回帰モデルを用いてスケッチ生成と補完を行う。
複雑なスケッチを抽象的プリミティブの単純化されたシーケンスにマッピングすることで、自動回帰モデリングのための入力を大幅に合理化する。
論文 参考訳(メタデータ) (2024-05-06T01:24:14Z) - An End-to-End Deep Learning Generative Framework for Refinable Shape
Matching and Generation [45.820901263103806]
In-Silico Clinical Trials (ISCTs) の必要条件としての形状生成モデルの構築
本研究では,非教師なしの幾何学的深層学習モデルを構築し,潜在空間における補修可能な形状対応を確立する。
提案するベースモデルを,より可変性を高めるために,結合形状生成クラスタリングマルチアトラスフレームワークに拡張する。
論文 参考訳(メタデータ) (2024-03-10T21:33:53Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Toward an Over-parameterized Direct-Fit Model of Visual Perception [5.4823225815317125]
本稿では, 単純細胞と複雑細胞の並列結合機構と逐次結合機構の相違について述べる。
空間分割と合成に抽象化する新たな提案が提案されている。
我々は、$ell_infty$-optimizationに基づいて、動的プログラミング(DP)のような近似近傍探索を実現する方法を示す。
論文 参考訳(メタデータ) (2022-10-07T23:54:30Z) - A Geometric Perspective on Variational Autoencoders [0.0]
本稿では、完全に幾何学的な視点から、変分オートエンコーダフレームワークの新たな解釈を提案する。
このスキームを使うことで、バニラVAEと競合し、いくつかのベンチマークデータセットのより高度なバージョンよりも優れていることが示される。
論文 参考訳(メタデータ) (2022-09-15T15:32:43Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - One-Shot Adaptation of GAN in Just One CLIP [51.188396199083336]
本稿では,CLIP空間を統一した単一ショットGAN適応方式を提案する。
具体的には、CLIP誘導潜在最適化を用いて、ソースジェネレータ内の参照画像検索という2段階のトレーニング戦略を採用する。
対象のテクスチャで多様な出力を生成し,質的かつ定量的にベースラインモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T13:03:06Z) - SP-GAN: Sphere-Guided 3D Shape Generation and Manipulation [50.53931728235875]
点雲の形で3次元形状を直接合成するための新しい教師なし球誘導生成モデルSP-GANを提案する。
既存のモデルと比較して、SP-GANは多種多様な高品質な形状を詳細に合成することができる。
論文 参考訳(メタデータ) (2021-08-10T06:49:45Z) - CoSE: Compositional Stroke Embeddings [52.529172734044664]
本稿では、ストロークベースの描画タスクのような複雑な自由形式構造に対する生成モデルを提案する。
我々のアプローチは、自動補完図のようなインタラクティブなユースケースに適している。
論文 参考訳(メタデータ) (2020-06-17T15:22:54Z) - Toward a Controllable Disentanglement Network [22.968760397814993]
本稿では, 画像編集における歪みの程度を制御し, 歪み強度と復元品質のバランスをとることにより, 歪み画像表現を学習する2つの重要な問題に対処する。
ソフトターゲット表現の実際の値空間を探索することにより、指定された特性を持つ新規な画像を合成することができる。
論文 参考訳(メタデータ) (2020-01-22T16:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。