論文の概要: Faster Stochastic Variance Reduction Methods for Compositional MiniMax
Optimization
- arxiv url: http://arxiv.org/abs/2308.09604v2
- Date: Tue, 12 Dec 2023 05:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 19:55:03.232258
- Title: Faster Stochastic Variance Reduction Methods for Compositional MiniMax
Optimization
- Title(参考訳): 合成ミニマックス最適化のための高速確率分散低減法
- Authors: Jin Liu, Xiaokang Pan, Junwen Duan, Hongdong Li, Youqi Li, Zhe Qu
- Abstract要約: 合成ミニマックス最適化は、さまざまな機械学習領域において重要な課題である。
構成最小最適化の現在の方法は、最適以下の複雑さや、大きなバッチサイズに大きく依存することによって悩まされている。
本稿では,Nested STOchastic Recursive Momentum (NSTORM)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 50.10952609321302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper delves into the realm of stochastic optimization for compositional
minimax optimization - a pivotal challenge across various machine learning
domains, including deep AUC and reinforcement learning policy evaluation.
Despite its significance, the problem of compositional minimax optimization is
still under-explored. Adding to the complexity, current methods of
compositional minimax optimization are plagued by sub-optimal complexities or
heavy reliance on sizable batch sizes. To respond to these constraints, this
paper introduces a novel method, called Nested STOchastic Recursive Momentum
(NSTORM), which can achieve the optimal sample complexity of $O(\kappa^3
/\epsilon^3 )$ to obtain the $\epsilon$-accuracy solution. We also demonstrate
that NSTORM can achieve the same sample complexity under the Polyak-\L
ojasiewicz (PL)-condition - an insightful extension of its capabilities. Yet,
NSTORM encounters an issue with its requirement for low learning rates,
potentially constraining its real-world applicability in machine learning. To
overcome this hurdle, we present ADAptive NSTORM (ADA-NSTORM) with adaptive
learning rates. We demonstrate that ADA-NSTORM can achieve the same sample
complexity but the experimental results show its more effectiveness. All the
proposed complexities indicate that our proposed methods can match lower bounds
to existing minimax optimizations, without requiring a large batch size in each
iteration. Extensive experiments support the efficiency of our proposed
methods.
- Abstract(参考訳): 本稿では,AUCの深層化や強化学習政策評価など,さまざまな機械学習領域における重要な課題である構成最小値最適化の確率的最適化の領域を掘り下げる。
その重要性にもかかわらず、構成的ミニマックス最適化の問題はまだ未定である。
この複雑さに加えて、構成最小最適化の現在の手法は、最適以下の複雑さや大きなバッチサイズへの依存に悩まされている。
これらの制約に対応するために,Nested STOchastic Recursive Momentum (NSTORM)と呼ばれる新しい手法を導入し,$O(\kappa^3 /\epsilon^3 )$の最適なサンプル複雑性を達成し,$\epsilon$-accuracyソリューションを得る。
また、NSTORMはPolyak-\L ojasiewicz(PL)条件の下で同じサンプルの複雑さを達成できます。
しかし、NSTORMは低学習率の要求に直面する問題があり、機械学習における実際の適用性を制限している可能性がある。
このハードルを克服するために、適応学習率のADA-NSTORM(ADA-NSTORM)を提案する。
我々はADA-NSTORMが同じサンプルの複雑さを達成できることを実証するが、実験結果はより有効であることを示す。
提案手法は,各イテレーションにおいて大きなバッチサイズを必要とすることなく,既存のミニマックス最適化と低い境界を一致させることができることを示す。
大規模実験は提案手法の効率化を支援する。
関連論文リスト
- Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling [0.0]
本研究では、連続緩和による勾配に基づく更新と準量子アナリング(QQA)を組み合わせた別のアプローチを提案する。
数値実験により,本手法はiSCOと学習型解法に匹敵する性能を有する汎用解法であることが示された。
論文 参考訳(メタデータ) (2024-09-02T12:55:27Z) - SPABA: A Single-Loop and Probabilistic Stochastic Bilevel Algorithm Achieving Optimal Sample Complexity [5.046146134689904]
SPABAを実装する際には,双レベル最適化と単レベル最適化の間に複雑性解析のギャップがないことが示されている。
本稿では,複雑性解析の状況を改善するために,他の2ループあるいはネストした2レベルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:36:03Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Debiasing Conditional Stochastic Optimization [15.901623717313493]
本稿では,ポートフォリオ選択や強化学習,堅牢な学習など,さまざまな応用をカバーする条件因果最適化(CSO)問題について検討する。
有限変量変量CSO問題に対する新しいアルゴリズムを開発し、既存の結果を大幅に改善する。
我々は,本手法が他の最適化問題と同様の課題に対処するための有用なツールとなる可能性があると考えている。
論文 参考訳(メタデータ) (2023-04-20T19:19:55Z) - Adaptive Federated Minimax Optimization with Lower Complexities [82.51223883622552]
本稿では,これらのミニマックス問題の解法として,適応最小最適化アルゴリズム(AdaFGDA)を提案する。
運動量に基づく還元および局所SGD技術を構築し、様々な適応学習率を柔軟に組み込む。
論文 参考訳(メタデータ) (2022-11-14T12:32:18Z) - Optimal Algorithms for Stochastic Complementary Composite Minimization [55.26935605535377]
統計学と機械学習における正規化技術に触発され,補完的な複合化の最小化について検討した。
予測と高い確率で、新しい過剰なリスク境界を提供する。
我々のアルゴリズムはほぼ最適であり、このクラスの問題に対して、新しいより低い複雑性境界によって証明する。
論文 参考訳(メタデータ) (2022-11-03T12:40:24Z) - Asymptotically Unbiased Instance-wise Regularized Partial AUC
Optimization: Theory and Algorithm [101.44676036551537]
One-way partial AUC (OPAUC) と Two-way partial AUC (TPAUC) はバイナリ分類器の平均性能を測定する。
既存の手法のほとんどはPAUCをほぼ最適化するしかなく、制御不能なバイアスにつながる。
本稿では,分散ロバスト最適化AUCによるPAUC問題の簡易化について述べる。
論文 参考訳(メタデータ) (2022-10-08T08:26:22Z) - Minimization of Stochastic First-order Oracle Complexity of Adaptive
Methods for Nonconvex Optimization [0.0]
一階オラクル(SFO)の複雑さの下限と上限を最小化するという意味で、重要なバッチサイズが存在することを証明した。
また、SFOの複雑性が下界と上界に適合するために必要な条件についても検討し、理論的結果を支持する数値的な結果を提供する。
論文 参考訳(メタデータ) (2021-12-14T04:55:04Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Stochastic Proximal Gradient Algorithm with Minibatches. Application to
Large Scale Learning Models [2.384873896423002]
非滑らかな成分を持つ汎用合成対象関数に対する勾配アルゴリズムのミニバッチ変種を開発し解析する。
我々は、最小バッチサイズ$N$に対して、$mathcalO(frac1Nepsilon)$$epsilon-$subityが最適解に期待される二次距離で達成されるような、定数および変数のステップサイズ反復ポリシーの複雑さを提供する。
論文 参考訳(メタデータ) (2020-03-30T10:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。