論文の概要: Stochastic Hamiltonian Gradient Methods for Smooth Games
- arxiv url: http://arxiv.org/abs/2007.04202v1
- Date: Wed, 8 Jul 2020 15:42:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 12:58:23.559155
- Title: Stochastic Hamiltonian Gradient Methods for Smooth Games
- Title(参考訳): スムースゲームに対する確率的ハミルトン勾配法
- Authors: Nicolas Loizou, Hugo Berard, Alexia Jolicoeur-Martineau, Pascal
Vincent, Simon Lacoste-Julien, Ioannis Mitliagkas
- Abstract要約: ハミルトンの手法のクラスに焦点をあて、滑らかなゲームのあるクラスに対する最初の収束保証を提供する。
最適化文献からのツールを用いて、SHGDは勾配の近傍に直線的に収束することを示す。
この結果から,一般ゲームのクラスに対して,非漸近的でない最後の収束保証を初めて提供する。
- 参考スコア(独自算出の注目度): 51.47367707388402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of adversarial formulations in machine learning has brought
renewed motivation for smooth games. In this work, we focus on the class of
stochastic Hamiltonian methods and provide the first convergence guarantees for
certain classes of stochastic smooth games. We propose a novel unbiased
estimator for the stochastic Hamiltonian gradient descent (SHGD) and highlight
its benefits. Using tools from the optimization literature we show that SHGD
converges linearly to the neighbourhood of a stationary point. To guarantee
convergence to the exact solution, we analyze SHGD with a decreasing step-size
and we also present the first stochastic variance reduced Hamiltonian method.
Our results provide the first global non-asymptotic last-iterate convergence
guarantees for the class of stochastic unconstrained bilinear games and for the
more general class of stochastic games that satisfy a "sufficiently bilinear"
condition, notably including some non-convex non-concave problems. We
supplement our analysis with experiments on stochastic bilinear and
sufficiently bilinear games, where our theory is shown to be tight, and on
simple adversarial machine learning formulations.
- Abstract(参考訳): 機械学習における敵意の定式化の成功は、スムーズなゲームに対する新たなモチベーションをもたらした。
本研究では,確率的ハミルトニアン手法のクラスに着目し,ある種の確率的滑らかなゲームに対して,最初の収束保証を提供する。
確率的ハミルトン勾配勾配(SHGD)の非バイアス推定器を提案し,その利点を明らかにする。
最適化文献のツールを用いて,shgd が定常点近傍に線形収束することを示す。
厳密な解の収束を保証するため, SHGDをステップサイズを小さくして解析し, 初めての確率分散低減ハミルトン法を提案する。
この結果から,非凸な非凸問題を含む「十分両線形」条件を満たす確率的非制約双線型ゲームや,より一般的な確率的ゲームに対して,最初のグローバルな非漸近的最終点収束保証を提供する。
我々は,確率的双線形ゲームと十分な双線形ゲームにおいて,我々の理論が厳密であることを示す実験と,単純な対向機械学習の定式化による解析を補完する。
関連論文リスト
- Trust-Region Sequential Quadratic Programming for Stochastic Optimization with Random Models [57.52124921268249]
本稿では,1次と2次の両方の定常点を見つけるための信頼逐次準計画法を提案する。
本手法は, 1次定常点に収束するため, 対象対象の近似を最小化して定義された各イテレーションの勾配ステップを計算する。
2階定常点に収束するため,本手法は負曲率を減少するヘッセン行列を探索する固有ステップも計算する。
論文 参考訳(メタデータ) (2024-09-24T04:39:47Z) - A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - High Probability Analysis for Non-Convex Stochastic Optimization with
Clipping [13.025261730510847]
勾配クリッピングは重み付きニューラルネットワークを扱う技術である。
ほとんどの理論上の保証は、予測外解析のみを提供し、性能のみを提供する。
我々の分析は、勾配クリッピングによる最適化アルゴリズムの理論的保証について、比較的完全な図を提供している。
論文 参考訳(メタデータ) (2023-07-25T17:36:56Z) - Formal guarantees for heuristic optimization algorithms used in machine
learning [6.978625807687497]
グラディエント・Descent(SGD)とその変種は、大規模最適化機械学習(ML)問題において支配的な手法となっている。
本稿では,いくつかの凸最適化手法の形式的保証と改良アルゴリズムの提案を行う。
論文 参考訳(メタデータ) (2022-07-31T19:41:22Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Minibatch and Momentum Model-based Methods for Stochastic Non-smooth
Non-convex Optimization [3.4809730725241597]
モデルベース手法に対する2つの重要な拡張を行う。
まず,各イテレーションのモデル関数を近似するために,サンプルの集合を用いる新しいミニバッチを提案する。
第二に、運動量法の成功により、新しい凸モデルを提案する。
論文 参考訳(メタデータ) (2021-06-06T05:31:57Z) - A Unified Analysis of First-Order Methods for Smooth Games via Integral
Quadratic Constraints [10.578409461429626]
本研究では、滑らかで強可変なゲームやイテレーションのための一階法に積分二次的制約理論を適用する。
我々は、負の運動量法(NM)に対して、既知の下界と一致する複雑性$mathcalO(kappa1.5)$で、初めて大域収束率を与える。
一段階のメモリを持つアルゴリズムでは,バッチ毎に1回だけ勾配を問合せすれば,高速化は不可能であることを示す。
論文 参考訳(メタデータ) (2020-09-23T20:02:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。