論文の概要: Self-concordant Smoothing for Large-Scale Convex Composite Optimization
- arxiv url: http://arxiv.org/abs/2309.01781v2
- Date: Mon, 19 Feb 2024 20:49:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 21:07:08.017095
- Title: Self-concordant Smoothing for Large-Scale Convex Composite Optimization
- Title(参考訳): 大規模凸複合最適化のための自己一致平滑化
- Authors: Adeyemi D. Adeoye, Alberto Bemporad
- Abstract要約: 2つの凸関数の和を最小化する自己協和スムージングの概念を導入し、そのうちの1つは滑らかであり、もう1つは非滑らかである。
本稿では, 近位ニュートンアルゴリズムであるProx-N-SCOREと近位一般化したガウスニュートンアルゴリズムであるProx-GGN-SCOREの2つのアルゴリズムの収束性を証明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a notion of self-concordant smoothing for minimizing the sum of
two convex functions, one of which is smooth and the other may be nonsmooth.
The key highlight of our approach is in a natural property of the resulting
problem's structure which provides us with a variable-metric selection method
and a step-length selection rule particularly suitable for proximal Newton-type
algorithms. In addition, we efficiently handle specific structures promoted by
the nonsmooth function, such as $\ell_1$-regularization and group-lasso
penalties. We prove the convergence of two resulting algorithms: Prox-N-SCORE,
a proximal Newton algorithm and Prox-GGN-SCORE, a proximal generalized
Gauss-Newton algorithm. The Prox-GGN-SCORE algorithm highlights an important
approximation procedure which helps to significantly reduce most of the
computational overhead associated with the inverse Hessian. This approximation
is essentially useful for overparameterized machine learning models and in the
mini-batch settings. Numerical examples on both synthetic and real datasets
demonstrate the efficiency of our approach and its superiority over existing
approaches. A Julia package implementing the proposed algorithms is available
at https://github.com/adeyemiadeoye/SelfConcordantSmoothOptimization.jl.
- Abstract(参考訳): 2つの凸関数の和を最小化するための自己協和スムージングの概念を導入し、そのうちの1つは滑らかであり、もう1つは非滑らかである。
提案手法の重要な特徴は,特に近位ニュートン型アルゴリズムに適した可変パラメータ選択法とステップ長選択規則を提示する問題の構造の自然な性質にある。
さらに,非スムース関数によって促進される特定の構造,例えば $\ell_1$-regularization や group-lasso penalties を効率的に扱う。
近似ニュートンアルゴリズムである Prox-N-SCORE と近一般化ガウスニュートンアルゴリズムである Prox-GGN-SCORE の2つのアルゴリズムの収束性を証明する。
Prox-GGN-SCOREアルゴリズムは、逆 Hessian に関連する計算オーバーヘッドの大部分を著しく削減する重要な近似手順を強調する。
この近似は、基本的に、過パラメータの機械学習モデルとミニバッチ設定で有用である。
合成データセットと実データセットの両方の数値例は、我々のアプローチの効率と既存のアプローチよりも優れていることを示している。
提案されたアルゴリズムを実装するJuliaパッケージはhttps://github.com/adeyemiadeoye/SelfConcordantSmoothOptimization.jlで公開されている。
関連論文リスト
- Nonsmooth Projection-Free Optimization with Functional Constraints [12.20060970177791]
本稿では,制約付き非平滑凸計算のための段階的アルゴリズムを提案する。
提案アルゴリズムは一般凸関数不等式制約で非滑らかな問題を扱うことができる。
決定論的下位段階が下位段階に置き換わる際にも同様のパフォーマンスが観察される。
論文 参考訳(メタデータ) (2023-11-18T23:06:33Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Gradient-free optimization of highly smooth functions: improved analysis
and a new algorithm [87.22224691317766]
この研究は、目的関数が極めて滑らかであるという仮定の下で、ゼロ次ノイズオラクル情報による問題を研究する。
ゼロオーダー射影勾配勾配アルゴリズムを2種類検討する。
論文 参考訳(メタデータ) (2023-06-03T17:05:13Z) - A One-Sample Decentralized Proximal Algorithm for Non-Convex Stochastic
Composite Optimization [10.762749887051546]
本稿では,Proxcal$DASA-GTとProxcal$DASA-Aの2時間スケールアルゴリズムを提案する。
以前の作業とは異なり、我々のアルゴリズムは、大きなバッチサイズ、より複雑な単位演算、より強い仮定を必要とせずに、同等の複雑さを達成する。
論文 参考訳(メタデータ) (2023-02-20T05:16:18Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Newton-LESS: Sparsification without Trade-offs for the Sketched Newton
Update [88.73437209862891]
2階最適化において、潜在的なボトルネックは繰り返しごとに最適化関数のヘシアン行列を計算することである。
本稿では,ガウススケッチ行列を劇的に分散させることにより,スケッチの計算コストを大幅に削減できることを示す。
ニュートン=ルネッサはガウス埋め込みとほぼ同じ問題に依存しない局所収束率を享受していることを証明した。
論文 参考訳(メタデータ) (2021-07-15T17:33:05Z) - Efficient Optimal Transport Algorithm by Accelerated Gradient descent [20.614477547939845]
本稿では,ネステロフの平滑化手法に基づく効率と精度をさらに向上させる新しいアルゴリズムを提案する。
提案手法は,同じパラメータでより高速な収束と精度を実現する。
論文 参考訳(メタデータ) (2021-04-12T20:23:29Z) - Slowly Varying Regression under Sparsity [5.22980614912553]
本稿では, 緩やかな過度回帰の枠組みを提示し, 回帰モデルが緩やかかつスパースな変動を示すようにした。
本稿では,バイナリ凸アルゴリズムとして再構成する手法を提案する。
結果として得られたモデルは、様々なデータセット間で競合する定式化よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-22T04:51:44Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Hybrid Variance-Reduced SGD Algorithms For Nonconvex-Concave Minimax
Problems [26.24895953952318]
我々は,非ガンスミニマックス問題のクラスを解くアルゴリズムを開発した。
また、単一または2つのミニバッチ誘導体でも機能する。
論文 参考訳(メタデータ) (2020-06-27T03:05:18Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。