論文の概要: PeerGAN: Generative Adversarial Networks with a Competing Peer
Discriminator
- arxiv url: http://arxiv.org/abs/2101.07524v1
- Date: Tue, 19 Jan 2021 09:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:17:04.242574
- Title: PeerGAN: Generative Adversarial Networks with a Competing Peer
Discriminator
- Title(参考訳): PeerGAN: 競合するピア判別器を持つ生成的敵対ネットワーク
- Authors: Jiaheng Wei, Minghao Liu, Jiahao Luo, Qiutong Li, James Davis, and
Yang Liu
- Abstract要約: PeerGANは、生成したサンプルの安定性を改善するための生成逆ネットワーク(GAN)ソリューションである。
本稿では,生成したサンプルの安定性を向上させるために,GAN(Generative Adversarial Network)ソリューションであるPeerGANを紹介する。
- 参考スコア(独自算出の注目度): 4.0586448182765285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce PeerGAN, a generative adversarial network (GAN)
solution to improve the stability of the generated samples and to mitigate mode
collapse. Built upon the Vanilla GAN's two-player game between the
discriminator $D_1$ and the generator $G$, we introduce a peer discriminator
$D_2$ to the min-max game. Similar to previous work using two discriminators,
the first role of both $D_1$, $D_2$ is to distinguish between generated samples
and real ones, while the generator tries to generate high-quality samples that
are able to fool both discriminators. Different from existing methods, we
introduce another game between $D_1$ and $D_2$ to discourage their agreement
and therefore increase the level of diversity of the generated samples. This
property helps avoid early mode collapse by preventing $D_1$ and $D_2$ from
converging too fast. We provide theoretical analysis for the equilibrium of the
min-max game formed among $G, D_1, D_2$. We offer convergence behavior of
PeerGAN as well as stability of the min-max game. It's worth mentioning that
PeerGAN operates in the unsupervised setting, and the additional game between
$D_1$ and $D_2$ does not need any label supervision. Experiments results on a
synthetic dataset and on real-world image datasets (MNIST, Fashion MNIST,
CIFAR-10, STL-10, CelebA, VGG) demonstrate that PeerGAN outperforms competitive
baseline work in generating diverse and high-quality samples, while only
introduces negligible computation cost.
- Abstract(参考訳): 本稿では,生成したサンプルの安定性向上とモード崩壊の軽減を目的として,gan (generative adversarial network) ソリューションであるpeerganを提案する。
判別器の$D_1$とジェネレータの$G$の2人プレイヤゲームに基づいて、min-maxゲームに$D_2$のピアディミネーターを導入する。
2つの識別器を使った以前の研究と同様に、$D_1$と$D_2$の両方の役割は生成されたサンプルと実際のサンプルを区別することであり、ジェネレータは両方の識別器を騙すことができる高品質なサンプルを生成しようとする。
既存の方法とは異なり、d_1$ と $d_2$ の間の別のゲームを導入することで、それらの合意を阻止し、生成されたサンプルの多様性のレベルを増加させる。
この特性は、$d_1$と$d_2$が収束しすぎることを防ぎ、早期モードの崩壊を避けるのに役立つ。
我々は,$g,d_1,d_2$で形成されたmin-maxゲームの平衡に関する理論的解析を行う。
我々は PeerGAN の収束挙動と min-max ゲームの安定性を提供する。
PeerGANは教師なしの環境で動作しており、$D_1$と$D_2$の間の追加のゲームにはラベルの監督は必要ない。
合成データセットと実世界の画像データセット(MNIST, Fashion MNIST, CIFAR-10, STL-10, CelebA, VGG)による実験の結果, PeerGANは多種多様な高品質なサンプルの生成において競争ベースラインよりも優れており, 計算コストは無視できないことがわかった。
関連論文リスト
- Addressing GAN Training Instabilities via Tunable Classification Losses [8.151943266391493]
GAN(Generative Adversarial Network)は、形式的な保証付き合成データを生成する。
すべての対称$f$-発散は収束において同値であることを示す。
また,合成2次元ガウス混合環のトレーニング不安定性を緩和するために,$(alpha_D,alpha_G)$のチューニング値も強調する。
論文 参考訳(メタデータ) (2023-10-27T17:29:07Z) - $(\alpha_D,\alpha_G)$-GANs: Addressing GAN Training Instabilities via
Dual Objectives [7.493779672689531]
生成器(G)と識別器(D)に異なる値関数(対象物)を持つ2目的GANのクラスを導入する。
結果のゼロでない和ゲームは、$(alpha_D,alpha_G)$の適切な条件下での$f$-divergenceを最小化する。
合成2次元ガウス混合環とスタックドMNISTデータセットのトレーニング不安定性を緩和するために, チューニング $(alpha_D,alpha_G)$ の値を強調した。
論文 参考訳(メタデータ) (2023-02-28T05:22:54Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - Policy Mirror Ascent for Efficient and Independent Learning in Mean
Field Games [35.86199604587823]
平均場ゲームは対称および匿名の$N$-playerゲームに対して近似的なナッシュ均衡を得るための理論的ツールとして使われてきた。
ポリシーミラーを実行する$N$エージェントは、$widetildemathcalO(varepsilon-2)$サンプル内で正規化ゲームのナッシュ平衡に収束することを示す。
論文 参考訳(メタデータ) (2022-12-29T20:25:18Z) - Representation Learning for General-sum Low-rank Markov Games [63.119870889883224]
非線形関数近似を用いたマルチエージェント汎用マルコフゲームについて検討する。
遷移行列が未知の非線形表現の上に隠れた低ランク構造を持つ低ランクマルコフゲームに焦点を当てる。
論文 参考訳(メタデータ) (2022-10-30T22:58:22Z) - Minimax-Optimal Multi-Agent RL in Zero-Sum Markov Games With a
Generative Model [50.38446482252857]
2人プレイのゼロサムマルコフゲームは多エージェント強化学習においておそらく最も基本的な設定である。
我々は,$$ widetildeObiggを用いて,$varepsilon$-approximate Markov NEポリシーを学習する学習アルゴリズムを開発した。
我々は、分散型量の役割を明確にするFTRLに対する洗練された後悔境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T17:24:55Z) - Linear Contextual Bandits with Adversarial Corruptions [91.38793800392108]
本稿では,敵対的腐敗の存在下での線形文脈的包帯問題について検討する。
逆汚染レベルに適応する分散認識アルゴリズムをC$で提案する。
論文 参考訳(メタデータ) (2021-10-25T02:53:24Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。