論文の概要: PROMISE: Preconditioned Stochastic Optimization Methods by Incorporating
Scalable Curvature Estimates
- arxiv url: http://arxiv.org/abs/2309.02014v2
- Date: Fri, 15 Sep 2023 00:13:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 17:35:36.080435
- Title: PROMISE: Preconditioned Stochastic Optimization Methods by Incorporating
Scalable Curvature Estimates
- Title(参考訳): PROMISE:スケーラブルな曲率推定を組み込んだ事前条件付き確率最適化手法
- Authors: Zachary Frangella, Pratik Rathore, Shipu Zhao, and Madeleine Udell
- Abstract要約: PROMISE ($textbfPr$econditioned $textbfO$ptimization $textbfM$ethods by $textbfI$ncorporating $textbfS$calable Curvature $textbfE$stimates)はスケッチベースの事前条件勾配アルゴリズムである。
PROMISEには、SVRG、SAGA、およびKatyushaのプレコンディション版が含まれている。
- 参考スコア(独自算出の注目度): 17.777466668123886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces PROMISE ($\textbf{Pr}$econditioned Stochastic
$\textbf{O}$ptimization $\textbf{M}$ethods by $\textbf{I}$ncorporating
$\textbf{S}$calable Curvature $\textbf{E}$stimates), a suite of sketching-based
preconditioned stochastic gradient algorithms for solving large-scale convex
optimization problems arising in machine learning. PROMISE includes
preconditioned versions of SVRG, SAGA, and Katyusha; each algorithm comes with
a strong theoretical analysis and effective default hyperparameter values. In
contrast, traditional stochastic gradient methods require careful
hyperparameter tuning to succeed, and degrade in the presence of
ill-conditioning, a ubiquitous phenomenon in machine learning. Empirically, we
verify the superiority of the proposed algorithms by showing that, using
default hyperparameter values, they outperform or match popular tuned
stochastic gradient optimizers on a test bed of $51$ ridge and logistic
regression problems assembled from benchmark machine learning repositories. On
the theoretical side, this paper introduces the notion of quadratic regularity
in order to establish linear convergence of all proposed methods even when the
preconditioner is updated infrequently. The speed of linear convergence is
determined by the quadratic regularity ratio, which often provides a tighter
bound on the convergence rate compared to the condition number, both in theory
and in practice, and explains the fast global linear convergence of the
proposed methods.
- Abstract(参考訳): 本稿では,機械学習における大規模凸最適化問題を解くための,スケッチに基づく事前条件付き確率勾配アルゴリズムである PROMISE ($\textbf{Pr}$econditioned Stochastic $\textbf{O}$ptimization $\textbf{M}$ethods by $\textbf{I}$ncorporating $\textbf{S}$calable Curvature $\textbf{E}$stimates を紹介する。
PROMISEには、SVRG、SAGA、Katyushaのプレコンディション版が含まれており、それぞれのアルゴリズムには強力な理論解析と効果的なデフォルトのハイパーパラメータ値がある。
対照的に、従来の確率的勾配法では、機械学習においてユビキタスな現象である悪条件の存在下では、注意深いハイパーパラメータチューニングが必要となる。
実験では,デフォルトのハイパーパラメータ値を用いて,511ドルのリッジテストベッドとベンチマーク機械学習リポジトリから組み立てたロジスティック回帰問題に対して,一般的なチューン確率勾配最適化器を上回ったり、一致させたりすることで,提案アルゴリズムの優位性を検証する。
理論的には, プリコンディショナーが不定期に更新された場合でも, 提案手法の線形収束を確立するために, 二次正則性の概念を導入する。
線形収束の速度は2次正規度比によって決定されるが、これは理論上も実際上も条件数よりも収束率に厳密な制約を与え、提案手法の高速大域的線形収束を説明する。
関連論文リスト
- Diffusion Stochastic Optimization for Min-Max Problems [33.73046548872663]
楽観的勾配法はミニマックス最適化問題に対処するのに有用である。
従来のバージョンでは大きなバッチサイズが必要であり,Samevareps-generativeOGOGと呼ばれる新しい定式化を導入,解析する。
論文 参考訳(メタデータ) (2024-01-26T01:16:59Z) - Distributionally Robust Optimization with Bias and Variance Reduction [9.341215359733601]
勾配に基づくアルゴリズムであるProspectは、スムーズな正規化損失に対する線形収束を享受していることを示す。
また、勾配法のようなベースラインよりも2~3$times$早く収束できることも示している。
論文 参考訳(メタデータ) (2023-10-21T00:03:54Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - A Unified Convergence Theorem for Stochastic Optimization Methods [4.94128206910124]
一連の統一最適化手法に対する収束結果の導出に使用される基本的な統一収束定理を提供する。
直接応用として、一般的な設定下での収束結果をほぼ確実に回復する。
論文 参考訳(メタデータ) (2022-06-08T14:01:42Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Faster Algorithm and Sharper Analysis for Constrained Markov Decision
Process [56.55075925645864]
制約付き意思決定プロセス (CMDP) の問題点について検討し, エージェントは, 複数の制約を条件として, 期待される累積割引報酬を最大化することを目的とする。
新しいユーティリティ・デュアル凸法は、正規化ポリシー、双対正則化、ネステロフの勾配降下双対という3つの要素の新たな統合によって提案される。
これは、凸制約を受ける全ての複雑性最適化に対して、非凸CMDP問題が$mathcal O (1/epsilon)$の低い境界に達する最初の実演である。
論文 参考訳(メタデータ) (2021-10-20T02:57:21Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Bayesian Sparse learning with preconditioned stochastic gradient MCMC
and its applications [5.660384137948734]
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束する。
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束可能であることを示す。
論文 参考訳(メタデータ) (2020-06-29T20:57:20Z) - A Dynamical Systems Approach for Convergence of the Bayesian EM
Algorithm [59.99439951055238]
我々は、(離散時間)リアプノフ安定性理論が、必ずしも勾配ベースではない最適化アルゴリズムの分析(および潜在的な設計)において、いかに強力なツールとして役立つかを示す。
本稿では,不完全データベイズフレームワークにおけるパラメータ推定を,MAP-EM (maximum a reari expectation-maximization) と呼ばれる一般的な最適化アルゴリズムを用いて行うことに着目したML問題について述べる。
高速収束(線形あるいは二次的)が達成され,S&Cアプローチを使わずに発表することが困難であった可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-23T01:34:18Z) - Optimizing generalization on the train set: a novel gradient-based
framework to train parameters and hyperparameters simultaneously [0.0]
一般化は機械学習における中心的な問題である。
本稿では,新たなリスク尺度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T18:04:36Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。