論文の概要: Autoencoding Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2004.05472v1
- Date: Sat, 11 Apr 2020 19:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 10:18:22.106655
- Title: Autoencoding Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkの自動エンコーディング
- Authors: Conor Lazarou
- Abstract要約: 本稿では,所定の潜在空間と与えられたサンプル空間とのマッピングを学習する4ネットワークモデルを提案する。
AEGAN技術は、トレーニング安定化、モード崩壊防止、実際のサンプル間の直接反転など、一般的なGANトレーニングにいくつかの改善を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the years since Goodfellow et al. introduced Generative Adversarial
Networks (GANs), there has been an explosion in the breadth and quality of
generative model applications. Despite this work, GANs still have a long way to
go before they see mainstream adoption, owing largely to their infamous
training instability. Here I propose the Autoencoding Generative Adversarial
Network (AEGAN), a four-network model which learns a bijective mapping between
a specified latent space and a given sample space by applying an adversarial
loss and a reconstruction loss to both the generated images and the generated
latent vectors. The AEGAN technique offers several improvements to typical GAN
training, including training stabilization, mode-collapse prevention, and
permitting the direct interpolation between real samples. The effectiveness of
the technique is illustrated using an anime face dataset.
- Abstract(参考訳): GoodfellowらがGAN(Generative Adversarial Networks)を導入して以来、生成モデル応用の広さと品質が爆発的に上昇してきた。
この取り組みにもかかわらず、gansは、悪名高いトレーニング不安定さによって、主流になるまでにはまだ長い道のりがある。
本稿では,生成した画像と生成した潜伏ベクトルの両方に対して,対向損失と再構成損失を適用して,指定された潜伏空間と所定のサンプル空間との双対写像を学習する4つのネットワークモデルであるオートエンコード生成適応ネットワーク(AEGAN)を提案する。
AEGAN技術は、トレーニング安定化、モード崩壊防止、実際のサンプル間の直接補間など、一般的なGANトレーニングにいくつかの改善を提供する。
本手法の有効性をアニメ顔データセットを用いて示す。
関連論文リスト
- DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - Generative Cooperative Networks for Natural Language Generation [25.090455367573988]
本稿では,リアルテキストのサンプルを出力する生成ポリシーとともに,識別器アーキテクチャを協調的に使用する生成協調ネットワークについて紹介する。
我々は,提案手法の収束を理論的に保証し,2つの主要なNLGタスクにおいて,最先端の成果を実証的に達成するための様々な効率的な復号化手法について検討する。
論文 参考訳(メタデータ) (2022-01-28T18:36:57Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Training Generative Adversarial Networks in One Stage [58.983325666852856]
本稿では,1段階のみに効率よくGANを訓練できる汎用的なトレーニング手法を提案する。
提案手法は,データフリーな知識蒸留など,他の逆学習シナリオにも容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-02-28T09:03:39Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Generative Adversarial Stacked Autoencoders [3.1829446824051195]
本稿では,GASCA(Generative Adversarial Stacked Convolutional Autoencoder)モデルを提案する。
本訓練では, 再建誤差がバニラ関節トレーニングよりも有意に低い画像を生成する。
論文 参考訳(メタデータ) (2020-11-22T17:51:59Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Novelty Detection via Non-Adversarial Generative Network [47.375591404354765]
新しいデコーダ-エンコーダフレームワークが,新規検出タスクのために提案されている。
非敵対的な枠組みの下では、潜伏空間と画像再構成空間の両方が共同最適化されている。
我々のモデルは、最先端のノベルティ検出器よりも明らかな優位性を持ち、データセットの最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-02-03T01:05:59Z) - Generative Adversarial Trainer: Defense to Adversarial Perturbations
with GAN [13.561553183983774]
本稿では, 生成的対角ネットワークを用いて, ニューラルネットワークを敵の例に頑健にするための新しい手法を提案する。
ジェネレータネットワークは、各画像の勾配を用いて分類器ネットワークを騙し易くする対向摂動を生成する。
我々の対戦型トレーニングフレームワークは、Dropoutのような他の正規化手法よりも効率よくオーバーフィッティングを減らし、性能を向上します。
論文 参考訳(メタデータ) (2017-05-09T15:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。