論文の概要: Robust Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2004.13344v1
- Date: Tue, 28 Apr 2020 07:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:14:58.635969
- Title: Robust Generative Adversarial Network
- Title(参考訳): ロバストな生成型adversarial network
- Authors: Shufei Zhang, Zhuang Qian, Kaizhu Huang, Jimin Xiao, Yuan He
- Abstract要約: トレーニングサンプルの小さな地区における局所的ロバスト性を促進することにより,GANの一般化能力の向上を目指す。
我々は,ジェネレータと識別器が,小さなワッサーシュタイン球内でテキストワーストケース設定で互いに競合する,ロバストな最適化フレームワークを設計する。
我々の頑健な手法は、穏やかな仮定の下で従来のGANよりも厳密な一般化上限が得られることを証明した。
- 参考スコア(独自算出の注目度): 37.015223009069175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) are powerful generative models, but
usually suffer from instability and generalization problem which may lead to
poor generations. Most existing works focus on stabilizing the training of the
discriminator while ignoring the generalization properties. In this work, we
aim to improve the generalization capability of GANs by promoting the local
robustness within the small neighborhood of the training samples. We also prove
that the robustness in small neighborhood of training sets can lead to better
generalization. Particularly, we design a robust optimization framework where
the generator and discriminator compete with each other in a
\textit{worst-case} setting within a small Wasserstein ball. The generator
tries to map \textit{the worst input distribution} (rather than a Gaussian
distribution used in most GANs) to the real data distribution, while the
discriminator attempts to distinguish the real and fake distribution
\textit{with the worst perturbation}. We have proved that our robust method can
obtain a tighter generalization upper bound than traditional GANs under mild
assumptions, ensuring a theoretical superiority of RGAN over GANs. A series of
experiments on CIFAR-10, STL-10 and CelebA datasets indicate that our proposed
robust framework can improve on five baseline GAN models substantially and
consistently.
- Abstract(参考訳): generative adversarial network (gans) は強力な生成モデルであるが、通常は不安定性や一般化の問題に苦しむ。
既存の研究の多くは、一般化特性を無視しながら判別器の訓練を安定化することに焦点を当てている。
本研究では,訓練試料の近傍における局所的ロバスト性を促進することにより,gansの一般化能力の向上を目指す。
また、トレーニングセットの小さな近傍におけるロバスト性が、よりよい一般化につながることを証明します。
特に,小さなワッサースタイン球内の \textit{worst-case} 設定において,生成器と判別器が互いに競合するロバストな最適化フレームワークを設計する。
ジェネレータは、実データ分布に \textit{the worst input distribution} (ほとんどのganで使われるガウス分布ではなく) をマップしようとするが、判別器は、偽の分布 \textit{ with the worst perturbation} を区別しようとする。
我々は,従来のGANよりも厳密な一般化上限を得ることができ,GANよりもRGANの方が理論的に優れていることを証明した。
CIFAR-10, STL-10, CelebAデータセットの一連の実験により, 提案したロバストなフレームワークは, 5つのベースラインGANモデルに対してほぼ一貫した改善が可能であることが示された。
関連論文リスト
- DigGAN: Discriminator gradIent Gap Regularization for GAN Training with
Limited Data [13.50061291734299]
本稿では,既存のGANに付加可能なDigGAN(DigGAN)の定式化を提案する。
DigGANは既存のGANを強化し、判別器の予測 w.r.t. 実画像と生成されたサンプル w.r.t. の勾配のノルムのギャップを狭める。
この定式化は,GANロスランドスケープ内の悪い引き込みを回避し,限られたデータが得られる場合に,GANトレーニングの結果を大幅に改善するDigGANを見出した。
論文 参考訳(メタデータ) (2022-11-27T01:03:58Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Minimax Optimality (Probably) Doesn't Imply Distribution Learning for
GANs [44.4200799586461]
標準的な暗号的仮定は、この強い条件がまだ不十分であることを示している。
我々の技術は、GANとPRGの深い関係を明らかにし、GANの計算環境に関するさらなる洞察をもたらすものと信じている。
論文 参考訳(メタデータ) (2022-01-18T18:59:21Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Inferential Wasserstein Generative Adversarial Networks [9.859829604054127]
自動エンコーダとWGANを融合する原理的フレームワークである新しい推論ワッサースタインGAN(iWGAN)モデルを導入する。
iWGANはモード崩壊の症状を大幅に緩和し、収束を高速化し、各サンプルの品質チェックの測定を行うことができる。
論文 参考訳(メタデータ) (2021-09-13T00:43:21Z) - DO-GAN: A Double Oracle Framework for Generative Adversarial Networks [28.904057977044374]
GAN(Generative Adversarial Networks)を育成するための新しいアプローチを提案します。
私たちはgeneratorとdiscriminator oraclesを使ってダブルoracleフレームワークをデプロイします。
我々は、バニラGAN、ディープ・コンボリューショナルGAN、スペクトル正規化GAN、スタックドGANなどの確立されたGANアーキテクチャに適用する。
論文 参考訳(メタデータ) (2021-02-17T05:11:18Z) - Teaching a GAN What Not to Learn [20.03447539784024]
GAN(Generative Adversarial Network)は、本来、対象分布に従うことを学習する教師なし生成モデルとして構想されていた。
本稿では,ペルシアの有名な詩人ルミの思想に動機づけられたGAN問題に対して,異なる視点からアプローチする。
GANフレームワークでは、モデリングを学習しなければならないGAN陽性データだけでなく、回避しなければならないいわゆる負のサンプルも提示します。
この定式化により、判別器は、望ましくない生成サンプルをペナリゼーションすることで、基礎となるターゲット分布をより良く表現することができる。
論文 参考訳(メタデータ) (2020-10-29T14:44:24Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。