論文の概要: DO-GAN: A Double Oracle Framework for Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2102.08577v1
- Date: Wed, 17 Feb 2021 05:11:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:28:31.245503
- Title: DO-GAN: A Double Oracle Framework for Generative Adversarial Networks
- Title(参考訳): DO-GAN: ジェネレーティブ・アドバイザリ・ネットワークのための2つのOracleフレームワーク
- Authors: Aye Phyu Phyu Aung, Xinrun Wang, Runsheng Yu, Bo An, Senthilnath
Jayavelu, Xiaoli Li
- Abstract要約: GAN(Generative Adversarial Networks)を育成するための新しいアプローチを提案します。
私たちはgeneratorとdiscriminator oraclesを使ってダブルoracleフレームワークをデプロイします。
我々は、バニラGAN、ディープ・コンボリューショナルGAN、スペクトル正規化GAN、スタックドGANなどの確立されたGANアーキテクチャに適用する。
- 参考スコア(独自算出の注目度): 28.904057977044374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new approach to train Generative Adversarial
Networks (GANs) where we deploy a double-oracle framework using the generator
and discriminator oracles. GAN is essentially a two-player zero-sum game
between the generator and the discriminator. Training GANs is challenging as a
pure Nash equilibrium may not exist and even finding the mixed Nash equilibrium
is difficult as GANs have a large-scale strategy space. In DO-GAN, we extend
the double oracle framework to GANs. We first generalize the players'
strategies as the trained models of generator and discriminator from the best
response oracles. We then compute the meta-strategies using a linear program.
For scalability of the framework where multiple generators and discriminator
best responses are stored in the memory, we propose two solutions: 1) pruning
the weakly-dominated players' strategies to keep the oracles from becoming
intractable; 2) applying continual learning to retain the previous knowledge of
the networks. We apply our framework to established GAN architectures such as
vanilla GAN, Deep Convolutional GAN, Spectral Normalization GAN and Stacked
GAN. Finally, we conduct experiments on MNIST, CIFAR-10 and CelebA datasets and
show that DO-GAN variants have significant improvements in both subjective
qualitative evaluation and quantitative metrics, compared with their respective
GAN architectures.
- Abstract(参考訳): 本稿では,ジェネレータとディスクリミネータのオーラクルを用いて,2つのオーラクル・フレームワークをデプロイするGAN(Generative Adversarial Networks)の学習手法を提案する。
GANは基本的に発電機と判別器の間の2プレイヤーのゼロサムゲームです。
訓練gansは純粋ナッシュ平衡が存在しない可能性があり、gansが大規模戦略空間を持つため混合ナッシュ平衡を見つけることは困難である。
DO-GANでは、ダブルオラクルフレームワークをGANに拡張します。
まず, プレイヤーの戦略を, 最適応答オラクルからのジェネレータと判別器の訓練モデルとして一般化する。
次に,線形プログラムを用いてメタストラテジーを計算する。
複数生成器と識別器のベストレスポンスをメモリに格納するフレームワークの拡張性について,1) 弱支配者戦略の破砕,2) 連続学習によるネットワークに関する過去の知識の保持,の2つのソリューションを提案する。
我々は、バニラGAN、ディープ・コンボリューショナルGAN、スペクトル正規化GAN、スタックドGANなどの確立されたGANアーキテクチャに適用する。
最後に, MNIST, CIFAR-10, CelebAデータセットを用いて実験を行い, DO-GAN変異体は各GANアーキテクチャと比較して, 主観的質的評価と定量化の両面で有意な改善を示した。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Double Oracle Neural Architecture Search for Game Theoretic Deep Learning Models [28.238075755838487]
本稿では,ゲーム理論の概念を用いたディープラーニングモデルの学習手法を提案する。
最良応答オラクルを用いた二重対角フレームワークをデプロイする。
主観的質的評価と定量的指標の両面で,我々の変種は有意な改善が見られた。
論文 参考訳(メタデータ) (2024-10-07T05:42:01Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Fuzzy Generative Adversarial Networks [0.0]
Generative Adversarial Networks (GAN) は、データ生成と半教師付き分類のためのよく知られたツールである。
本稿では,平均絶対誤差(MAE)と平均二乗誤差(MSE)によるGANの回帰能力の向上を示す手法を提案する。
ファジィ論理層を追加することで、GANの回帰処理能力が向上し、最も望ましい注入位置は問題固有であることが示される。
論文 参考訳(メタデータ) (2021-10-27T17:05:06Z) - Inferential Wasserstein Generative Adversarial Networks [9.859829604054127]
自動エンコーダとWGANを融合する原理的フレームワークである新しい推論ワッサースタインGAN(iWGAN)モデルを導入する。
iWGANはモード崩壊の症状を大幅に緩和し、収束を高速化し、各サンプルの品質チェックの測定を行うことができる。
論文 参考訳(メタデータ) (2021-09-13T00:43:21Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Robust Generative Adversarial Network [37.015223009069175]
トレーニングサンプルの小さな地区における局所的ロバスト性を促進することにより,GANの一般化能力の向上を目指す。
我々は,ジェネレータと識別器が,小さなワッサーシュタイン球内でテキストワーストケース設定で互いに競合する,ロバストな最適化フレームワークを設計する。
我々の頑健な手法は、穏やかな仮定の下で従来のGANよりも厳密な一般化上限が得られることを証明した。
論文 参考訳(メタデータ) (2020-04-28T07:37:01Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - xAI-GAN: Enhancing Generative Adversarial Networks via Explainable AI
Systems [16.360144499713524]
Generative Adversarial Networks (GAN) は、現実的な画像、音楽、テキスト、その他のデータの生成に成功しているディープニューラルネットワーク(DNN)の革命的なクラスである。
本稿では、AI(xAI)システムにおける最近の進歩を活用して、識別器からジェネレータへの「よりリッチな」修正フィードバックを提供する新しいGANクラスを提案する。
我々は、xAI-GANが標準GANよりも、MNISTとFMNISTの両方のデータセットで生成された画像の品質を最大23.18%向上させるのを観察する。
論文 参考訳(メタデータ) (2020-02-24T18:38:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。