論文の概要: Minibatch and Momentum Model-based Methods for Stochastic Non-smooth
Non-convex Optimization
- arxiv url: http://arxiv.org/abs/2106.03034v1
- Date: Sun, 6 Jun 2021 05:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:34:24.661165
- Title: Minibatch and Momentum Model-based Methods for Stochastic Non-smooth
Non-convex Optimization
- Title(参考訳): 確率的非スムース非凸最適化のためのミニバッチと運動量モデルに基づく手法
- Authors: Qi Deng and Wenzhi Gao
- Abstract要約: モデルベース手法に対する2つの重要な拡張を行う。
まず,各イテレーションのモデル関数を近似するために,サンプルの集合を用いる新しいミニバッチを提案する。
第二に、運動量法の成功により、新しい凸モデルを提案する。
- 参考スコア(独自算出の注目度): 3.4809730725241597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic model-based methods have received increasing attention lately due
to their appealing robustness to the stepsize selection and provable efficiency
guarantee for non-smooth non-convex optimization. To further improve the
performance of stochastic model-based methods, we make two important
extensions. First, we propose a new minibatch algorithm which takes a set of
samples to approximate the model function in each iteration. For the first
time, we show that stochastic algorithms achieve linear speedup over the batch
size even for non-smooth and non-convex problems. To this end, we develop a
novel sensitivity analysis of the proximal mapping involved in each algorithm
iteration. Our analysis can be of independent interests in more general
settings. Second, motivated by the success of momentum techniques for convex
optimization, we propose a new stochastic extrapolated model-based method to
possibly improve the convergence in the non-smooth and non-convex setting. We
obtain complexity guarantees for a fairly flexible range of extrapolation term.
In addition, we conduct experiments to show the empirical advantage of our
proposed methods.
- Abstract(参考訳): 確率モデルに基づく手法は,非スムース非凸最適化のためのステップズ選択への強固さと証明可能な効率保証により,近年注目を集めている。
確率モデルに基づく手法の性能をさらに向上するため,2つの重要な拡張を行った。
まず,各イテレーションのモデル関数を近似するために,サンプルの集合を用いる新しいミニバッチアルゴリズムを提案する。
まず,非滑らか・非凸問題においても,確率的アルゴリズムがバッチサイズよりも線形高速化を実現することを示す。
そこで本研究では,各アルゴリズムの反復にかかわる近位写像の感度解析法を開発した。
我々の分析は、より一般的な設定において独立した関心を持つことができる。
第二に, 凸最適化のための運動量手法の成功に動機づけられ, 非スムースおよび非凸設定の収束性を改善するための新しい確率的外挿モデルベース手法を提案する。
我々は、かなりフレキシブルな外挿項の複雑性を保証する。
また,提案手法の実証的優位性を示す実験を行った。
関連論文リスト
- The Stochastic Conjugate Subgradient Algorithm For Kernel Support Vector Machines [1.738375118265695]
本稿では,カーネルサポートベクトルマシン(SVM)に特化して設計された革新的な手法を提案する。
イテレーション毎のイテレーションを高速化するだけでなく、従来のSFO技術と比較して収束度も向上する。
実験の結果,提案アルゴリズムはSFO法のスケーラビリティを維持できるだけでなく,潜在的に超越していることが示された。
論文 参考訳(メタデータ) (2024-07-30T17:03:19Z) - Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Enhancing Gaussian Process Surrogates for Optimization and Posterior Approximation via Random Exploration [2.984929040246293]
ガウス過程シュロゲートモデルの精度を高めるために、ランダムな探索ステップに依存する新しいノイズフリーベイズ最適化戦略。
新しいアルゴリズムは、古典的なGP-UCBの実装の容易さを維持しているが、さらなる探索がそれらの収束を促進する。
論文 参考訳(メタデータ) (2024-01-30T14:16:06Z) - Adaptive Sampling Quasi-Newton Methods for Zeroth-Order Stochastic
Optimization [1.7513645771137178]
勾配情報のない制約のない最適化問題を考察する。
適応的なサンプリング準ニュートン法を提案し、共通乱数フレームワーク内の有限差を用いてシミュレーション関数の勾配を推定する。
そこで本研究では, 標準試験と内積準ニュートン試験の修正版を開発し, 近似に使用する試料サイズを制御し, 最適解の近傍に大域収束結果を与える。
論文 参考訳(メタデータ) (2021-09-24T21:49:25Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Optimal Rates for Random Order Online Optimization [60.011653053877126]
敵が損失関数を選択できるカテットガルバー2020onlineについて検討するが、一様にランダムな順序で提示される。
2020onlineアルゴリズムが最適境界を達成し,安定性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T09:48:46Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Accelerated, Optimal, and Parallel: Some Results on Model-Based
Stochastic Optimization [33.71051480619541]
凸最適化問題を解決するためのモデルベース手法の近似近位点(aProx)ファミリを拡張します。
我々は、非漸近収束保証と、ミニバッチサイズの線形スピードアップを提供する加速スキームを提供する。
我々は,「補間」問題に対する新しい基本定数を同定し,収束率の改善と下界の整合性を示す。
論文 参考訳(メタデータ) (2021-01-07T18:58:39Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。