論文の概要: Training Generative Adversarial Networks via stochastic Nash games
- arxiv url: http://arxiv.org/abs/2010.10013v3
- Date: Fri, 21 May 2021 10:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 12:22:09.565409
- Title: Training Generative Adversarial Networks via stochastic Nash games
- Title(参考訳): 確率ナッシュゲームによる生成的敵ネットワークの訓練
- Authors: Barbara Franci, Sergio Grammatico
- Abstract要約: GAN(Generative Adversarial Network)は、ジェネレータと識別器という2つの対角ニューラルネットワークを持つ生成モデルのクラスである。
データの数が増加すると、正確な解に収束することを示す。
また, サンプル数が少ない場合, SRFBアルゴリズムの平均変種を解の近傍に収束させることも示した。
- 参考スコア(独自算出の注目度): 2.995087247817663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) are a class of generative models with
two antagonistic neural networks: a generator and a discriminator. These two
neural networks compete against each other through an adversarial process that
can be modeled as a stochastic Nash equilibrium problem. Since the associated
training process is challenging, it is fundamental to design reliable
algorithms to compute an equilibrium. In this paper, we propose a stochastic
relaxed forward-backward (SRFB) algorithm for GANs and we show convergence to
an exact solution when an increasing number of data is available. We also show
convergence of an averaged variant of the SRFB algorithm to a neighborhood of
the solution when only few samples are available. In both cases, convergence is
guaranteed when the pseudogradient mapping of the game is monotone. This
assumption is among the weakest known in the literature. Moreover, we apply our
algorithm to the image generation problem.
- Abstract(参考訳): GAN(Generative Adversarial Network)は、ジェネレータと識別器という2つの対角ニューラルネットワークを持つ生成モデルのクラスである。
これら2つのニューラルネットワークは、確率的ナッシュ平衡問題としてモデル化できる逆過程を通じて互いに競合する。
関連するトレーニングプロセスは難しいため、平衡を計算するための信頼性の高いアルゴリズムを設計することが基本である。
本稿では,GANに対する確率緩和フォワードバック(SRFB)アルゴリズムを提案する。
また, サンプル数が少ない場合, SRFBアルゴリズムの平均変種を解の近傍に収束させることも示した。
どちらの場合も、ゲームの擬漸進写像が単調であるときに収束が保証される。
この仮定は、文献で知られている中では最も弱い。
さらに,このアルゴリズムを画像生成問題に適用する。
関連論文リスト
- Computing Systemic Risk Measures with Graph Neural Networks [1.6874375111244329]
本稿では,明確にモデル化された二元的負債の金融ネットワークに対するシステム的リスク対策について検討する。
本研究では,システム的リスクと最適ランダムアロケーションの近似の数値計算法について検討する。
論文 参考訳(メタデータ) (2024-09-30T10:18:13Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Generative Adversarial Learning of Sinkhorn Algorithm Initializations [0.0]
我々は、エントロピーOT双対問題を通じてアルゴリズムの初期化を学ぶためにニューラルネットワークを巧みに訓練することで、収束を著しく加速できることを示した。
我々のネットワークは,正規化輸送距離を数パーセントの誤差に近似するために,スタンドアロンのOTソルバとしても使用できることを示す。
論文 参考訳(メタデータ) (2022-11-30T21:56:09Z) - Conjugate Gradient Method for Generative Adversarial Networks [0.0]
深層ニューラルネットワークモデルの密度関数と密度関数のJensen-Shannon分散を計算することは不可能である。
GAN(Generative Adversarial Network)は、この問題をジェネレータと識別器という2つのモデルで識別する問題として定式化することができる。
本稿では,GANの局所的なナッシュ平衡問題の解法として共役勾配法を提案する。
論文 参考訳(メタデータ) (2022-03-28T04:44:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - On the Reproducibility of Neural Network Predictions [52.47827424679645]
そこで本研究では, チャーン問題について検討し, 原因因子を同定し, 緩和する2つの簡単な方法を提案する。
最初に、標準的な画像分類タスクであっても、チャーンが問題であることを示す。
我々は,予測信頼度を高めるために,エントロピー正規化器を提案する。
両手法の有効性を実証的に示し, 基礎モデルの精度を向上しながら, チャーン低減効果を示す。
論文 参考訳(メタデータ) (2021-02-05T18:51:01Z) - Neural Thompson Sampling [94.82847209157494]
本稿では,ニューラルトンプソンサンプリング(Neural Thompson Smpling)と呼ばれる新しいアルゴリズムを提案する。
我々のアルゴリズムの中核は報酬の新たな後部分布であり、その平均はニューラルネットワーク近似器であり、その分散は対応するニューラルネットワークのニューラル・タンジェントな特徴に基づいて構築されている。
論文 参考訳(メタデータ) (2020-10-02T07:44:09Z) - A game-theoretic approach for Generative Adversarial Networks [2.995087247817663]
GAN(Generative Adversarial Network)は、生成モデルの一種で、正確なサンプルを作成することで知られている。
彼らの実装の主なボトルネックは、ニューラルネットワークのトレーニングが非常に難しいことだ。
本稿では,GANに対する緩和されたフォワードバックワードアルゴリズムを提案する。
ゲームの擬階写像が単調であるとき、正確な解やその近傍に収束することが証明される。
論文 参考訳(メタデータ) (2020-03-30T17:14:41Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。