論文の概要: ARTEMIS: Using GANs with Multiple Discriminators to Generate Art
- arxiv url: http://arxiv.org/abs/2311.08278v1
- Date: Tue, 14 Nov 2023 16:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-11-15 13:24:51.156368
- Title: ARTEMIS: Using GANs with Multiple Discriminators to Generate Art
- Title(参考訳): ARTEMIS: アート生成に複数の識別器を用いたGAN
- Authors: James Baker
- Abstract要約: 本稿では,抽象芸術を創出する新しい手法を提案する。
まず、事前訓練されたVGGネットワークでソース画像から抽出された画像のスタイル表現を符号化し、復号するオートエンコーダを訓練する。
オートエンコーダのデコーダ成分を抽出し、GANのジェネレータとして使用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel method for generating abstract art. First an autoencoder
is trained to encode and decode the style representations of images, which are
extracted from source images with a pretrained VGG network. Then, the decoder
component of the autoencoder is extracted and used as a generator in a GAN. The
generator works with an ensemble of discriminators. Each discriminator takes
different style representations of the same images, and the generator is
trained to create images that create convincing style representations in order
to deceive all of the generators. The generator is also trained to maximize a
diversity term. The resulting images had a surreal, geometric quality. We call
our approach ARTEMIS (ARTistic Encoder- Multi- Discriminators Including
Self-Attention), as it uses the self-attention layers and an encoder-decoder
architecture.
- Abstract(参考訳): 抽象アートを生成する新しい手法を提案する。
まず、事前訓練されたVGGネットワークでソース画像から抽出された画像のスタイル表現を符号化し、復号するオートエンコーダを訓練する。
そして、オートエンコーダのデコーダ成分を抽出し、GANのジェネレータとして使用する。
発電機は識別器のアンサンブルで動作する。
各判別器は、同じ画像の異なるスタイル表現を受け取り、ジェネレータは、すべてのジェネレータを欺くために、説得力のあるスタイル表現を生成するイメージを作成するように訓練される。
ジェネレータはまた、多様性の項を最大化するために訓練される。
その結果得られた画像は、超現実的で幾何学的な品質を持っていた。
我々は,自己認識層とエンコーダ・デコーダアーキテクチャを用いたARTEMIS(Artistic Encoder- Multi- Discriminators In including Self-Attention)と呼ぶ。
関連論文リスト
- Progressive Energy-Based Cooperative Learning for Multi-Domain
Image-to-Image Translation [53.682651509759744]
マルチドメイン画像・画像翻訳のための新しいエネルギーベース協調学習フレームワークについて検討する。
フレームワークは、ディスクリプタ、トランスレータ、スタイルエンコーダ、スタイルジェネレータの4つのコンポーネントで構成されている。
論文 参考訳(メタデータ) (2023-06-26T06:34:53Z) - Towards Accurate Image Coding: Improved Autoregressive Image Generation
with Dynamic Vector Quantization [73.52943587514386]
既存のベクトル量子化(VQ)ベースの自己回帰モデルは、2段階生成パラダイムに従う。
画像領域を可変長符号に符号化する動的量子化VAE(DQ-VAE)を提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:05Z) - Generative Steganography Network [37.182458848616754]
表紙画像を用いることなく現実的なステゴ画像を生成することのできる,高度な生成型ステガノグラフィーネットワーク(GSN)を提案する。
シークレットブロックと呼ばれるモジュールは、画像生成中に特徴マップにシークレットデータを隠蔽するように微妙に設計されている。
論文 参考訳(メタデータ) (2022-07-28T03:34:37Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - AE-StyleGAN: Improved Training of Style-Based Auto-Encoders [21.51697087024866]
StyleGANは、近年、データ生成と操作に関して印象的な成果を上げている。
本稿では, 画像から潜伏空間への逆転過程を容易にし, 実際のデータ再構成を強制することは, より不整合な潜伏空間へと導かれるか?
本稿では,エンコーダとジェネレータをエンドツーエンドに最適化したスタイルベースのオートエンコーダをトレーニングする手法について述べる。
論文 参考訳(メタデータ) (2021-10-17T04:25:51Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Generate High Resolution Images With Generative Variational Autoencoder [0.0]
本稿では,高解像度画像を生成する新しいニューラルネットワークを提案する。
エンコーダをそのまま使用しながら,VAEのデコーダを識別器に置き換える。
我々は、MNIST、LSUN、CelebAの3つの異なるデータセットでネットワークを評価した。
論文 参考訳(メタデータ) (2020-08-12T20:15:34Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z) - Adversarial Latent Autoencoders [7.928094304325116]
我々は共同で問題に取り組むオートエンコーダを導入し、それをAdversarial Latent Autoencoder (ALAE) と呼ぶ。
ALAEは、ジェネレータのみのアーキテクチャの能力を超えて、比較可能な最初のオートエンコーダである。
論文 参考訳(メタデータ) (2020-04-09T10:33:44Z) - OneGAN: Simultaneous Unsupervised Learning of Conditional Image
Generation, Foreground Segmentation, and Fine-Grained Clustering [100.32273175423146]
本研究では、教師なしの方法で、条件付き画像生成装置、前景抽出とセグメンテーション、オブジェクトの削除と背景補完を同時に学習する方法を提案する。
Geneversarative Adrial Network と Variational Auto-Encoder を組み合わせることで、複数のエンコーダ、ジェネレータ、ディスクリミネータを組み合わせ、全てのタスクを一度に解くことができる。
論文 参考訳(メタデータ) (2019-12-31T18:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。