論文の概要: Convergence of GANs Training: A Game and Stochastic Control Methodology
- arxiv url: http://arxiv.org/abs/2112.00222v1
- Date: Wed, 1 Dec 2021 01:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 02:35:59.198975
- Title: Convergence of GANs Training: A Game and Stochastic Control Methodology
- Title(参考訳): GANsトレーニングの収束性:ゲームと確率制御方法論
- Authors: Othmane Mounjid, Xin Guo
- Abstract要約: GAN(Generative Adversarial Network)の訓練は、その収束の困難さで知られている。
本稿ではまず,GANの目的関数における凸性の欠如を確かめる。
特に、目的関数の凸度に依存する適応学習率の最適解を示す。
- 参考スコア(独自算出の注目度): 4.933916728941277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training of generative adversarial networks (GANs) is known for its
difficulty to converge. This paper first confirms analytically one of the
culprits behind this convergence issue: the lack of convexity in GANs objective
functions, hence the well-posedness problem of GANs models. Then, it proposes a
stochastic control approach for hyper-parameters tuning in GANs training. In
particular, it presents an optimal solution for adaptive learning rate which
depends on the convexity of the objective function, and builds a precise
relation between improper choices of learning rate and explosion in GANs
training. Finally, empirical studies demonstrate that training algorithms
incorporating this selection methodology outperform standard ones.
- Abstract(参考訳): generative adversarial networks(gans)のトレーニングは、収束が難しいことで知られている。
本稿ではまず,gansの目的関数における凸性の欠如,したがってgansモデルの適切性問題という,この収束問題の背後にある要因の1つを解析的に確認する。
そして,GAN訓練におけるハイパーパラメータチューニングのための確率的制御手法を提案する。
特に、目的関数の凸度に依存する適応学習率の最適解を示し、GAN訓練における学習率の不適切な選択と爆発の関係を正確に構築する。
最後に、実験的な研究により、この選択手法を取り入れたトレーニングアルゴリズムが標準手法より優れていることが示された。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Error analysis of generative adversarial network [0.0]
本稿では、識別器とジェネレータニューラルネットワークを含む関数のクラスに基づいて、GANモデルの誤差収束率について検討する。
タラグランドの不等式とボレル・カンテッリ補題を用いることで、GANの誤差に対する厳密な収束率を確立する。
論文 参考訳(メタデータ) (2023-10-23T22:39:28Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Decentralized Statistical Inference with Unrolled Graph Neural Networks [26.025935320024665]
分散最適化アルゴリズムをグラフニューラルネットワーク(GNN)にアンロールする学習ベースフレームワークを提案する。
エンドツーエンドトレーニングによるリカバリエラーを最小限にすることで、この学習ベースのフレームワークは、モデルのミスマッチ問題を解決する。
コンバージェンス解析により,学習したモデルパラメータがコンバージェンスを加速し,リカバリエラーを広範囲に低減できることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-04T07:52:34Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z) - The Strength of Nesterov's Extrapolation in the Individual Convergence
of Nonsmooth Optimization [0.0]
ネステロフの外挿は、非滑らかな問題に対して勾配降下法の個人収束を最適にする強さを持つことを証明している。
提案手法は,設定の非滑らかな損失を伴って正規化学習タスクを解くためのアルゴリズムの拡張である。
本手法は,大規模な1-正規化ヒンジロス学習問題の解法として有効である。
論文 参考訳(メタデータ) (2020-06-08T03:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。