論文の概要: Generative Adversarial Stacked Autoencoders
- arxiv url: http://arxiv.org/abs/2011.12236v1
- Date: Sun, 22 Nov 2020 17:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 08:59:07.808390
- Title: Generative Adversarial Stacked Autoencoders
- Title(参考訳): 生成的対向重積オートエンコーダ
- Authors: Ariel Ruiz-Garcia, Ibrahim Almakky, Vasile Palade, Luke Hicks
- Abstract要約: 本稿では,GASCA(Generative Adversarial Stacked Convolutional Autoencoder)モデルを提案する。
本訓練では, 再建誤差がバニラ関節トレーニングよりも有意に低い画像を生成する。
- 参考スコア(独自算出の注目度): 3.1829446824051195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) have become predominant in image
generation tasks. Their success is attributed to the training regime which
employs two models: a generator G and discriminator D that compete in a minimax
zero sum game. Nonetheless, GANs are difficult to train due to their
sensitivity to hyperparameter and parameter initialisation, which often leads
to vanishing gradients, non-convergence, or mode collapse, where the generator
is unable to create samples with different variations. In this work, we propose
a novel Generative Adversarial Stacked Convolutional Autoencoder(GASCA) model
and a generative adversarial gradual greedy layer-wise learning algorithm
de-signed to train Adversarial Autoencoders in an efficient and incremental
manner. Our training approach produces images with significantly lower
reconstruction error than vanilla joint training.
- Abstract(参考訳): 画像生成タスクにおいてGAN(Generative Adversarial Networks)が主流となっている。
彼らの成功は、ミニマックスゼロサムゲームで競うジェネレータgと判別器dという2つのモデルを採用したトレーニングレジームに起因している。
それでもganはハイパーパラメータやパラメータ初期化に敏感であるためトレーニングが難しく、勾配や非コンバージェンス、モードの崩壊が失われることが多く、ジェネレータは異なるバリエーションのサンプルを作成できない。
そこで本研究では,新しい生成的可逆加重畳み込みオートエンコーダ(gasca)モデルと生成可逆可逆漸進学習アルゴリズムを提案する。
トレーニングアプローチは,バニラ関節訓練よりも復元誤差が有意に低い画像を生成する。
関連論文リスト
- GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Time Efficient Training of Progressive Generative Adversarial Network
using Depthwise Separable Convolution and Super Resolution Generative
Adversarial Network [0.0]
本稿では,プログレッシブGANと若干の修正とスーパーレゾリューションGANを組み合わせた新しいパイプラインを提案する。
スーパーレゾリューションGANは低解像度画像を高解像度画像にサンプリングし、トレーニング時間を指数関数的に短縮するのに有用な資源であることが証明できる。
論文 参考訳(メタデータ) (2022-02-24T19:53:37Z) - Generative Cooperative Networks for Natural Language Generation [25.090455367573988]
本稿では,リアルテキストのサンプルを出力する生成ポリシーとともに,識別器アーキテクチャを協調的に使用する生成協調ネットワークについて紹介する。
我々は,提案手法の収束を理論的に保証し,2つの主要なNLGタスクにおいて,最先端の成果を実証的に達成するための様々な効率的な復号化手法について検討する。
論文 参考訳(メタデータ) (2022-01-28T18:36:57Z) - Conditional Variational Autoencoder with Balanced Pre-training for
Generative Adversarial Networks [11.46883762268061]
クラス不均衡は、各クラスの画像数が大きく異なる画像分類を含む多くの実世界のアプリケーションで発生する。
不均衡なデータでは、GAN(Generative Adversarial Network)は多数派に傾いている。
本稿では, リアルな合成画像を生成するための拡張ツールとして, CAPGAN (Geneversarative Adrial Networks) のためのバランス付き事前学習機能を備えた新しい変分オートエンコーダを提案する。
論文 参考訳(メタデータ) (2022-01-13T06:52:58Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Autoencoding Generative Adversarial Networks [0.0]
本稿では,所定の潜在空間と与えられたサンプル空間とのマッピングを学習する4ネットワークモデルを提案する。
AEGAN技術は、トレーニング安定化、モード崩壊防止、実際のサンプル間の直接反転など、一般的なGANトレーニングにいくつかの改善を提供する。
論文 参考訳(メタデータ) (2020-04-11T19:51:04Z) - Generative Adversarial Trainer: Defense to Adversarial Perturbations
with GAN [13.561553183983774]
本稿では, 生成的対角ネットワークを用いて, ニューラルネットワークを敵の例に頑健にするための新しい手法を提案する。
ジェネレータネットワークは、各画像の勾配を用いて分類器ネットワークを騙し易くする対向摂動を生成する。
我々の対戦型トレーニングフレームワークは、Dropoutのような他の正規化手法よりも効率よくオーバーフィッティングを減らし、性能を向上します。
論文 参考訳(メタデータ) (2017-05-09T15:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。