論文の概要: $\alpha$-GAN: Convergence and Estimation Guarantees
- arxiv url: http://arxiv.org/abs/2205.06393v1
- Date: Thu, 12 May 2022 23:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 13:07:27.000898
- Title: $\alpha$-GAN: Convergence and Estimation Guarantees
- Title(参考訳): $\alpha$-gan:収束と推定の保証
- Authors: Gowtham R. Kurri, Monica Welfert, Tyler Sypherd, Lalitha Sankar
- Abstract要約: 一般CPE損失関数 GAN の min-max 最適化と、関連する$f$-divergences の最小化との対応性を証明する。
次に、$alpha$-GAN を $alpha$-loss で定義し、いくつかの GAN を補間し、有元発散の最小化に対応する。
- 参考スコア(独自算出の注目度): 7.493779672689531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We prove a two-way correspondence between the min-max optimization of general
CPE loss function GANs and the minimization of associated $f$-divergences. We
then focus on $\alpha$-GAN, defined via the $\alpha$-loss, which interpolates
several GANs (Hellinger, vanilla, Total Variation) and corresponds to the
minimization of the Arimoto divergence. We show that the Arimoto divergences
induced by $\alpha$-GAN equivalently converge, for all $\alpha\in
\mathbb{R}_{>0}\cup\{\infty\}$. However, under restricted learning models and
finite samples, we provide estimation bounds which indicate diverse GAN
behavior as a function of $\alpha$. Finally, we present empirical results on a
toy dataset that highlight the practical utility of tuning the $\alpha$
hyperparameter.
- Abstract(参考訳): 一般CPE損失関数 GANs の min-max 最適化と、関連する$f$-divergences の最小化との双方向対応性を証明する。
すると、$\alpha$-GAN を $\alpha$-loss で定義し、いくつかの GAN (Hellinger, vanilla, Total Variation) を補間し、有元発散の最小化に対応する。
すべての$\alpha\in \mathbb{R}_{>0}\cup\{\infty\}$に対して、$\alpha$-GAN によって誘導される有元発散が同値収束することを示す。
しかし、制限付き学習モデルと有限サンプルの下では、$\alpha$の関数として多様なGAN挙動を示す推定境界を提供する。
最後に、$\alpha$ハイパーパラメータのチューニングの実用性を強調したtoyデータセットについて実験結果を示す。
関連論文リスト
- MGDA Converges under Generalized Smoothness, Provably [27.87166415148172]
多目的最適化(MOO)はマルチタスク学習など様々な分野で注目を集めている。
最近の研究は、理論解析を伴う効果的なアルゴリズムを提供しているが、それらは標準の$L$-smoothあるいは有界勾配仮定によって制限されている。
一般化された$ell$-smooth損失関数のより一般的で現実的なクラスについて研究し、$ell$は勾配ノルムの一般非減少関数である。
論文 参考訳(メタデータ) (2024-05-29T18:36:59Z) - Addressing GAN Training Instabilities via Tunable Classification Losses [8.151943266391493]
GAN(Generative Adversarial Network)は、形式的な保証付き合成データを生成する。
すべての対称$f$-発散は収束において同値であることを示す。
また,合成2次元ガウス混合環のトレーニング不安定性を緩和するために,$(alpha_D,alpha_G)$のチューニング値も強調する。
論文 参考訳(メタデータ) (2023-10-27T17:29:07Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - $(\alpha_D,\alpha_G)$-GANs: Addressing GAN Training Instabilities via
Dual Objectives [7.493779672689531]
生成器(G)と識別器(D)に異なる値関数(対象物)を持つ2目的GANのクラスを導入する。
結果のゼロでない和ゲームは、$(alpha_D,alpha_G)$の適切な条件下での$f$-divergenceを最小化する。
合成2次元ガウス混合環とスタックドMNISTデータセットのトレーニング不安定性を緩和するために, チューニング $(alpha_D,alpha_G)$ の値を強調した。
論文 参考訳(メタデータ) (2023-02-28T05:22:54Z) - Horizon-Free and Variance-Dependent Reinforcement Learning for Latent
Markov Decision Processes [62.90204655228324]
我々は,後期マルコフ決定過程(LMDP)における強化学習(RL)の文脈を考慮した後悔の最小化について検討した。
我々は,モデル最適化と値最適化の両手法でインスタンス化できる,新しいモデルベースアルゴリズムフレームワークを設計する。
論文 参考訳(メタデータ) (2022-10-20T21:32:01Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Realizing GANs via a Tunable Loss Function [7.455546102930911]
我々は$alpha$-GAN と呼ばれる調整可能な GAN を導入し、$alpha in (0,infty]$ でパラメータ化する。
その結果,$alpha$-GANは有本発散と密接に関連していることがわかった。
論文 参考訳(メタデータ) (2021-06-09T17:18:21Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Least $k$th-Order and R\'{e}nyi Generative Adversarial Networks [12.13405065406781]
実験結果から,MNISTデータセットとCelebAデータセットに適用した損失関数は,それぞれ$k$と$alpha$のパラメータによって提供される余分な自由度により,性能上のメリットが期待できることがわかった。
本研究は GAN に適用されているが,提案手法は汎用的であり,情報理論の他の応用例,例えば人工知能における公正性やプライバシの問題などに応用することができる。
論文 参考訳(メタデータ) (2020-06-03T18:44:05Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z) - A Simple Convergence Proof of Adam and Adagrad [74.24716715922759]
我々はAdam Adagradと$O(d(N)/st)$アルゴリズムの収束の証明を示す。
Adamはデフォルトパラメータで使用する場合と同じ収束$O(d(N)/st)$で収束する。
論文 参考訳(メタデータ) (2020-03-05T01:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。