論文の概要: DC-Art-GAN: Stable Procedural Content Generation using DC-GANs for
Digital Art
- arxiv url: http://arxiv.org/abs/2209.02847v1
- Date: Tue, 6 Sep 2022 23:06:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:06:54.920829
- Title: DC-Art-GAN: Stable Procedural Content Generation using DC-GANs for
Digital Art
- Title(参考訳): DC-Art-GAN:デジタルアートのためのDC-GANを用いた安定な手続き型コンテンツ生成
- Authors: Rohit Gandikota and Nik Bear Brown
- Abstract要約: 我々は,安定かつ異質なアートジェネレーションのために,敵対的な訓練を施した深層生成ネットワークのコンセプトを提唱する。
この研究は主に、DC-GAN(Deep Convolutional Generative Adversarial Network)の使用に焦点を当て、GANトレーニングにおける共通の落とし穴に対処する技術を探っている。
- 参考スコア(独自算出の注目度): 4.9631159466100305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Art is an artistic method of using digital technologies as a part of the
generative or creative process. With the advent of digital currency and NFTs
(Non-Fungible Token), the demand for digital art is growing aggressively. In
this manuscript, we advocate the concept of using deep generative networks with
adversarial training for a stable and variant art generation. The work mainly
focuses on using the Deep Convolutional Generative Adversarial Network (DC-GAN)
and explores the techniques to address the common pitfalls in GAN training. We
compare various architectures and designs of DC-GANs to arrive at a
recommendable design choice for a stable and realistic generation. The main
focus of the work is to generate realistic images that do not exist in reality
but are synthesised from random noise by the proposed model. We provide visual
results of generated animal face images (some pieces of evidence showing a
blend of species) along with recommendations for training, architecture and
design choices. We also show how training image preprocessing plays a massive
role in GAN training.
- Abstract(参考訳): 芸術は、創造的または創造的なプロセスの一部としてデジタル技術を使用する芸術的方法である。
デジタル通貨とnft(non-fungible token)の出現により、デジタルアートに対する需要は激増している。
本書では,安定かつ変種アート生成のための敵対的訓練を伴う深層生成ネットワークを用いた概念を提唱する。
この研究は主に、DC-GAN(Deep Convolutional Generative Adversarial Network)の使用に焦点を当て、GANトレーニングにおける共通の落とし穴に対処する技術を探っている。
我々は、DC-GANの様々なアーキテクチャと設計を比較し、安定的で現実的な世代に推奨される設計選択に到達する。
この研究の主な焦点は、現実には存在しないが、提案したモデルによってランダムノイズから合成される現実的な画像を生成することである。
生成した動物の顔画像(種の組み合わせを示す証拠の一部)の視覚的な結果と、トレーニング、アーキテクチャ、デザイン選択の推奨を提供する。
また、ganトレーニングにおいて、トレーニング画像前処理がいかに大きな役割を果たすかを示す。
関連論文リスト
- Colour and Brush Stroke Pattern Recognition in Abstract Art using Modified Deep Convolutional Generative Adversarial Networks [0.0]
本稿では,GAN(Generative Adrial Neural Networks)を用いた抽象絵画の広範な分布について述べる。
課題は、一般的なトレーニングの落とし穴を克服する効率的なGANアーキテクチャを開発することだ。
本稿では,高品質なアートワーク生成のための改良型DCGAN (mDCGAN) を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:35:56Z) - Harnessing Machine Learning for Discerning AI-Generated Synthetic Images [2.6227376966885476]
我々は、AI生成画像と実画像の識別に機械学習技術を用いる。
ResNet、VGGNet、DenseNetといった先進的なディープラーニングアーキテクチャを洗練し、適応しています。
実験結果は重要であり、最適化されたディープラーニングモデルが従来の手法より優れていることを示した。
論文 参考訳(メタデータ) (2024-01-14T20:00:37Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - There Is a Digital Art History [1.0878040851637998]
我々はJohanna Drucker氏の質問を再考する。
我々は,「デジタル」美術史へのパラダイムシフトを示唆する2つの主要な側面に着目した分析を行った。
論文 参考訳(メタデータ) (2023-08-14T21:21:03Z) - Diffusion idea exploration for art generation [0.10152838128195467]
拡散モデルは最近、クロスモーダルデータを用いた画像生成タスクにおいて、他の生成モデルよりも優れています。
このタスクの新たな画像生成の初期実験は、有望な質的結果を示した。
論文 参考訳(メタデータ) (2023-07-11T02:35:26Z) - StyleAvatar3D: Leveraging Image-Text Diffusion Models for High-Fidelity
3D Avatar Generation [103.88928334431786]
高品質な3Dアバターを製作するための新しい手法を提案する。
データ生成には事前学習した画像テキスト拡散モデルとGANベースの3次元生成ネットワークを用いて訓練を行う。
提案手法は、生産されたアバターの視覚的品質と多様性の観点から、現在の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-30T13:09:21Z) - 3DAvatarGAN: Bridging Domains for Personalized Editable Avatars [75.31960120109106]
3D-GANは、一貫した構造を持つ大規模データセットのトレーニングにより、幾何学とテクスチャを合成する。
本稿では,ソースドメインが事前訓練された3D-GANであり,ターゲットドメインが2D-GANである適応フレームワークを提案する。
本稿では,芸術領域の誇張された幾何学をモデル化するための変形に基づく手法について述べる。
論文 参考訳(メタデータ) (2023-01-06T19:58:47Z) - Draw Your Art Dream: Diverse Digital Art Synthesis with Multimodal
Guided Diffusion [78.47285788155818]
現在のデジタルアート合成法は、通常、単一のモダリティ入力をガイダンスとして使用する。
拡散型デジタルアートワーク生成手法であるMGADモデルを提案する。
論文 参考訳(メタデータ) (2022-09-27T13:10:25Z) - CtlGAN: Few-shot Artistic Portraits Generation with Contrastive Transfer
Learning [77.27821665339492]
CtlGANは、新しいコントラッシブ・トランスファー学習戦略を備えた、数発のアート・ポートレート生成モデルである。
ソースドメインで事前訓練したStyleGANを,対象の芸術領域に適応させる。
実面をZ+空間に埋め込んだ新しいエンコーダを提案し,適応型デコーダに対処するためのデュアルパストレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-16T13:28:17Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Blind Motion Deblurring through SinGAN Architecture [21.104218472462907]
ブラインド・モーション・デブロワーリングは、ぼやけた観察から鋭いイメージを再構成する。
SinGANは無条件の生成モデルであり、単一の自然な画像から学習することができる。
論文 参考訳(メタデータ) (2020-11-07T06:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。