論文の概要: Inferential Wasserstein Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2109.05652v1
- Date: Mon, 13 Sep 2021 00:43:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 16:01:17.969200
- Title: Inferential Wasserstein Generative Adversarial Networks
- Title(参考訳): Inferential Wasserstein Generative Adversarial Networks
- Authors: Yao Chen, Qingyi Gao and Xiao Wang
- Abstract要約: 自動エンコーダとWGANを融合する原理的フレームワークである新しい推論ワッサースタインGAN(iWGAN)モデルを導入する。
iWGANはモード崩壊の症状を大幅に緩和し、収束を高速化し、各サンプルの品質チェックの測定を行うことができる。
- 参考スコア(独自算出の注目度): 9.859829604054127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have been impactful on many problems
and applications but suffer from unstable training. The Wasserstein GAN (WGAN)
leverages the Wasserstein distance to avoid the caveats in the minmax
two-player training of GANs but has other defects such as mode collapse and
lack of metric to detect the convergence. We introduce a novel inferential
Wasserstein GAN (iWGAN) model, which is a principled framework to fuse
auto-encoders and WGANs. The iWGAN model jointly learns an encoder network and
a generator network motivated by the iterative primal dual optimization
process. The encoder network maps the observed samples to the latent space and
the generator network maps the samples from the latent space to the data space.
We establish the generalization error bound of the iWGAN to theoretically
justify its performance. We further provide a rigorous probabilistic
interpretation of our model under the framework of maximum likelihood
estimation. The iWGAN, with a clear stopping criteria, has many advantages over
other autoencoder GANs. The empirical experiments show that the iWGAN greatly
mitigates the symptom of mode collapse, speeds up the convergence, and is able
to provide a measurement of quality check for each individual sample. We
illustrate the ability of the iWGAN by obtaining competitive and stable
performances for benchmark datasets.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は多くの問題や応用に影響を与えているが、不安定なトレーニングに悩まされている。
ワッサースタインgan(wgan)は、ガンのミンマックス2人の訓練における注意点を避けるためにワッサースタイン距離を利用するが、モード崩壊や収束を検出するためのメトリックの欠如などの欠陥がある。
自動エンコーダとWGANを融合する原理的フレームワークである新しい推論ワッサースタインGAN(iWGAN)モデルを導入する。
iWGANモデルは、反復原始双対最適化プロセスによって動機付けられたエンコーダネットワークとジェネレータネットワークを共同で学習する。
エンコーダネットワークは、観測されたサンプルを潜時空間にマッピングし、ジェネレータネットワークは潜時空間からデータ空間にサンプルをマッピングする。
我々はiWGANの一般化誤差を理論的に正当化するために確立する。
さらに, 最大確率推定の枠組みに基づいて, モデルの厳密な確率論的解釈を行う。
iwganは明確な停止基準を持ち、他のオートエンコーダganよりも多くの利点がある。
実験により、iWGANはモード崩壊の症状を大幅に緩和し、収束を加速し、各サンプルの品質チェックを測定できることが示されている。
ベンチマークデータセットの競合性能と安定性能を取得することで,iWGANの能力を示す。
関連論文リスト
- Generative Modeling for Tabular Data via Penalized Optimal Transport
Network [2.0319002824093015]
Wasserstein generative adversarial network (WGAN) は、生成モデルにおいて顕著な改善である。
本稿では,新しい,頑健で解釈可能な辺縁補償型Wasserstein(MPW)損失に基づく生成型ディープニューラルネットワークPOTNetを提案する。
論文 参考訳(メタデータ) (2024-02-16T05:27:05Z) - Adversarial Likelihood Estimation With One-Way Flows [44.684952377918904]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成することができるが、サンプル周辺の確率密度を見積もることはできない。
提案手法は, より高速に収束し, 類似したアーキテクチャでGANに匹敵するサンプル品質を生成し, 一般的に使用されるデータセットの過度な適合を回避し, トレーニングデータのスムーズな低次元潜在表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T10:26:29Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Hidden Convexity of Wasserstein GANs: Interpretable Generative Models
with Closed-Form Solutions [31.952858521063277]
凸双対レンズを用いた2層ニューラルネットワーク判別器によるワッサースタインGANの影響を解析した。
さらに、識別器の異なる活性化機能のパワーを実証する。
論文 参考訳(メタデータ) (2021-07-12T18:33:49Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。