論文の概要: A Homogenization Approach for Gradient-Dominated Stochastic Optimization
- arxiv url: http://arxiv.org/abs/2308.10630v2
- Date: Tue, 13 Feb 2024 09:58:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 19:29:41.297323
- Title: A Homogenization Approach for Gradient-Dominated Stochastic Optimization
- Title(参考訳): 勾配支配確率最適化のための均質化手法
- Authors: Jiyuan Tan, Chenyu Xue, Chuwen Zhang, Qi Deng, Dongdong Ge, Yinyu Ye
- Abstract要約: 勾配支配を享受する関数に対する同次二階降下法(SHSOD)を提案する。
以上の結果から,SHSODMは勾配優先最適化法において,他の2次法で達成された最もよく知られたサンプルの複雑さと一致していることがわかった。
- 参考スコア(独自算出の注目度): 6.478966569118394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient dominance property is a condition weaker than strong convexity, yet
sufficiently ensures global convergence even in non-convex optimization. This
property finds wide applications in machine learning, reinforcement learning
(RL), and operations management. In this paper, we propose the stochastic
homogeneous second-order descent method (SHSODM) for stochastic functions
enjoying gradient dominance property based on a recently proposed
homogenization approach. Theoretically, we provide its sample complexity
analysis, and further present an enhanced result by incorporating variance
reduction techniques. Our findings show that SHSODM matches the best-known
sample complexity achieved by other second-order methods for gradient-dominated
stochastic optimization but without cubic regularization. Empirically, since
the homogenization approach only relies on solving extremal eigenvector problem
at each iteration instead of Newton-type system, our methods gain the advantage
of cheaper computational cost and robustness in ill-conditioned problems.
Numerical experiments on several RL tasks demonstrate the better performance of
SHSODM compared to other off-the-shelf methods.
- Abstract(参考訳): 勾配支配性は強い凸性よりも弱い条件であるが、非凸最適化においても十分に大域収束を保証する。
この特性は、機械学習、強化学習(RL)、および運用管理に広く応用されている。
本稿では,最近提案されたホモゲナイズアプローチに基づき,勾配支配特性を享受する確率関数に対する確率的等質二階降下法(shsodm)を提案する。
理論的には, サンプルの複雑性解析を行い, さらに分散低減手法を取り入れた拡張結果を示す。
以上の結果から,SHSODMは勾配優先確率最適化法において,立方正則化を伴わない他の2次法で達成される最もよく知られたサンプル複雑性と一致した。
経験的に、均質化アプローチは、ニュートン型システムではなく、各イテレーションにおける極値固有ベクトル問題の解法にのみ依存するので、より安価な計算コストと、不条件問題における頑健さの利点を得る。
いくつかのRLタスクに関する数値実験は、SHSODMの他のオフザシェルフ法と比較して優れた性能を示す。
関連論文リスト
- Diffusion Stochastic Optimization for Min-Max Problems [33.73046548872663]
楽観的勾配法はミニマックス最適化問題に対処するのに有用である。
従来のバージョンでは大きなバッチサイズが必要であり,Samevareps-generativeOGOGと呼ばれる新しい定式化を導入,解析する。
論文 参考訳(メタデータ) (2024-01-26T01:16:59Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Stochastic Second-Order Methods Provably Beat SGD For Gradient-Dominated
Functions [42.57892322514602]
SCRNは,最もよく知られた勾配勾配勾配勾配の複雑さを$mathcalO(epsilon-1/2)$で改善することを示した。
また, SCRNのサンプルの複雑さは, バッチサイズが異なる分散還元法を用いて$mathcalO(epsilon-1/2)$で改善できることを示した。
論文 参考訳(メタデータ) (2022-05-25T15:33:00Z) - Last-Iterate Convergence of Saddle-Point Optimizers via High-Resolution
Differential Equations [83.3201889218775]
広く使われている1次サドル点最適化法は、帰納的導出時に同一の連続時間常微分方程式(ODE)を導出する。
しかし、これらの方法の収束特性は、単純な双線型ゲームでさえ質的に異なる。
いくつかのサドル点最適化法のための微分方程式モデルの設計に流体力学の研究フレームワークを採用する。
論文 参考訳(メタデータ) (2021-12-27T18:31:34Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - The Strength of Nesterov's Extrapolation in the Individual Convergence
of Nonsmooth Optimization [0.0]
ネステロフの外挿は、非滑らかな問題に対して勾配降下法の個人収束を最適にする強さを持つことを証明している。
提案手法は,設定の非滑らかな損失を伴って正規化学習タスクを解くためのアルゴリズムの拡張である。
本手法は,大規模な1-正規化ヒンジロス学習問題の解法として有効である。
論文 参考訳(メタデータ) (2020-06-08T03:35:41Z) - Distributed Stochastic Nonconvex Optimization and Learning based on
Successive Convex Approximation [26.11677569331688]
本稿では,ネットワーク内のエージェントの総和の分散アルゴリズム最小化のための新しいフレームワークを提案する。
提案手法は分散ニューラルネットワークに適用可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T15:36:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。