論文の概要: Self-concordant Smoothing for Convex Composite Optimization
- arxiv url: http://arxiv.org/abs/2309.01781v1
- Date: Mon, 4 Sep 2023 19:47:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 17:34:36.747754
- Title: Self-concordant Smoothing for Convex Composite Optimization
- Title(参考訳): 凸複合最適化のための自己一致平滑化
- Authors: Adeyemi D. Adeoye, Alberto Bemporad
- Abstract要約: 2つの凸関数の和を最小化するために、自己調和スムーシングの概念を導入する。
この枠組みは, 部分的平滑化と呼ばれる平滑化近似法から自然に導かれる。
2つの結果アルゴリズムに対して局所2次収束率を証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the notion of self-concordant smoothing for minimizing the sum
of two convex functions: the first is smooth and the second may be nonsmooth.
Our framework results naturally from the smoothing approximation technique
referred to as partial smoothing in which only a part of the nonsmooth function
is smoothed. The key highlight of our approach is in a natural property of the
resulting problem's structure which provides us with a variable-metric
selection method and a step-length selection rule particularly suitable for
proximal Newton-type algorithms. In addition, we efficiently handle specific
structures promoted by the nonsmooth function, such as $\ell_1$-regularization
and group-lasso penalties. We prove local quadratic convergence rates for two
resulting algorithms: Prox-N-SCORE, a proximal Newton algorithm and
Prox-GGN-SCORE, a proximal generalized Gauss-Newton (GGN) algorithm. The
Prox-GGN-SCORE algorithm highlights an important approximation procedure which
helps to significantly reduce most of the computational overhead associated
with the inverse Hessian. This approximation is essentially useful for
overparameterized machine learning models and in the mini-batch settings.
Numerical examples on both synthetic and real datasets demonstrate the
efficiency of our approach and its superiority over existing approaches.
- Abstract(参考訳): 我々は,2つの凸関数の和を最小化するために,自己調和スムージングの概念を導入する: 1つは滑らかであり,もう1つは非滑らかである。
提案手法は,非滑らか関数の一部のみを平滑化する部分平滑化と呼ばれる平滑化近似手法から自然に得られる。
提案手法の重要な特徴は,特に近位ニュートン型アルゴリズムに適した可変パラメータ選択法とステップ長選択規則を提示する問題の構造の自然な性質にある。
さらに,非スムース関数によって促進される特定の構造,例えば $\ell_1$-regularization や group-lasso penalties を効率的に扱う。
近似ニュートンアルゴリズムであるProx-N-SCOREと近一般化ガウスニュートンアルゴリズム(GGN)であるProx-GGN-SCOREの2つのアルゴリズムに対して局所2次収束率を示す。
Prox-GGN-SCOREアルゴリズムは、逆 Hessian に関連する計算オーバーヘッドの大部分を著しく削減する重要な近似手順を強調する。
この近似は、基本的に、過パラメータの機械学習モデルとミニバッチ設定で有用である。
合成データセットと実データセットの両方の数値例は、我々のアプローチの効率と既存のアプローチよりも優れていることを示している。
関連論文リスト
- Nonsmooth Projection-Free Optimization with Functional Constraints [12.20060970177791]
本稿では,制約付き非平滑凸計算のための段階的アルゴリズムを提案する。
提案アルゴリズムは一般凸関数不等式制約で非滑らかな問題を扱うことができる。
決定論的下位段階が下位段階に置き換わる際にも同様のパフォーマンスが観察される。
論文 参考訳(メタデータ) (2023-11-18T23:06:33Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Gradient-free optimization of highly smooth functions: improved analysis
and a new algorithm [87.22224691317766]
この研究は、目的関数が極めて滑らかであるという仮定の下で、ゼロ次ノイズオラクル情報による問題を研究する。
ゼロオーダー射影勾配勾配アルゴリズムを2種類検討する。
論文 参考訳(メタデータ) (2023-06-03T17:05:13Z) - A One-Sample Decentralized Proximal Algorithm for Non-Convex Stochastic
Composite Optimization [10.762749887051546]
本稿では,Proxcal$DASA-GTとProxcal$DASA-Aの2時間スケールアルゴリズムを提案する。
以前の作業とは異なり、我々のアルゴリズムは、大きなバッチサイズ、より複雑な単位演算、より強い仮定を必要とせずに、同等の複雑さを達成する。
論文 参考訳(メタデータ) (2023-02-20T05:16:18Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Newton-LESS: Sparsification without Trade-offs for the Sketched Newton
Update [88.73437209862891]
2階最適化において、潜在的なボトルネックは繰り返しごとに最適化関数のヘシアン行列を計算することである。
本稿では,ガウススケッチ行列を劇的に分散させることにより,スケッチの計算コストを大幅に削減できることを示す。
ニュートン=ルネッサはガウス埋め込みとほぼ同じ問題に依存しない局所収束率を享受していることを証明した。
論文 参考訳(メタデータ) (2021-07-15T17:33:05Z) - Efficient Optimal Transport Algorithm by Accelerated Gradient descent [20.614477547939845]
本稿では,ネステロフの平滑化手法に基づく効率と精度をさらに向上させる新しいアルゴリズムを提案する。
提案手法は,同じパラメータでより高速な収束と精度を実現する。
論文 参考訳(メタデータ) (2021-04-12T20:23:29Z) - Slowly Varying Regression under Sparsity [5.22980614912553]
本稿では, 緩やかな過度回帰の枠組みを提示し, 回帰モデルが緩やかかつスパースな変動を示すようにした。
本稿では,バイナリ凸アルゴリズムとして再構成する手法を提案する。
結果として得られたモデルは、様々なデータセット間で競合する定式化よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-22T04:51:44Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Hybrid Variance-Reduced SGD Algorithms For Nonconvex-Concave Minimax
Problems [26.24895953952318]
我々は,非ガンスミニマックス問題のクラスを解くアルゴリズムを開発した。
また、単一または2つのミニバッチ誘導体でも機能する。
論文 参考訳(メタデータ) (2020-06-27T03:05:18Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。