論文の概要: SCORE: Approximating Curvature Information under Self-Concordant
Regularization
- arxiv url: http://arxiv.org/abs/2112.07344v3
- Date: Mon, 10 Jul 2023 14:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 22:53:41.448889
- Title: SCORE: Approximating Curvature Information under Self-Concordant
Regularization
- Title(参考訳): SCORE:自己一致正則化による曲率情報の近似
- Authors: Adeyemi D. Adeoye, Alberto Bemporad
- Abstract要約: 本稿では,新たな入力を受信するたびに最小化速度を更新する自己調和正規化アルゴリズム(GGN-SCORE)を提案する。
提案アルゴリズムはヘッセン行列の2階情報構造を利用して計算オーバーヘッドを削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimization problems that include regularization functions in their
objectives are regularly solved in many applications. When one seeks
second-order methods for such problems, it may be desirable to exploit specific
properties of some of these regularization functions when accounting for
curvature information in the solution steps to speed up convergence. In this
paper, we propose the SCORE (self-concordant regularization) framework for
unconstrained minimization problems which incorporates second-order information
in the Newton-decrement framework for convex optimization. We propose the
generalized Gauss-Newton with Self-Concordant Regularization (GGN-SCORE)
algorithm that updates the minimization variables each time it receives a new
input batch. The proposed algorithm exploits the structure of the second-order
information in the Hessian matrix, thereby reducing computational overhead.
GGN-SCORE demonstrates how to speed up convergence while also improving model
generalization for problems that involve regularized minimization under the
proposed SCORE framework. Numerical experiments show the efficiency of our
method and its fast convergence, which compare favorably against baseline
first-order and quasi-Newton methods. Additional experiments involving
non-convex (overparameterized) neural network training problems show that the
proposed method is promising for non-convex optimization.
- Abstract(参考訳): 目的の正規化関数を含む最適化問題は、多くのアプリケーションで定期的に解決される。
そのような問題に対して二階法を求めるとき、解ステップにおける曲率情報を考慮して収束を早める際に、これらの正規化関数の特定の性質を利用するのが望ましい。
本稿では,newton-decrement framework for convex optimizationに2次情報を組み込んだ,制約のない最小化問題に対するスコア(自己一致正規化)フレームワークを提案する。
本稿では,新たな入力バッチを受信するたびに最小化変数を更新する自己一致正規化(GGN-SCORE)アルゴリズムを提案する。
提案手法は,ヒューシアン行列における2次情報の構造を利用して計算オーバーヘッドを削減する。
GGN-SCOREは、提案したSCOREフレームワークの下での正規化最小化を含む問題に対するモデル一般化を改善しながら収束を高速化する方法を示す。
数値実験により, ベースラインの1次法と準ニュートン法に比較して, 提案手法の効率と高速収束性を示す。
非凸(過パラメータ化)ニューラルネットワークトレーニング問題を含む追加実験は、提案手法が非凸最適化に有効であることを示す。
関連論文リスト
- Reduced-Space Iteratively Reweighted Second-Order Methods for Nonconvex Sparse Regularization [11.56128809794923]
本稿では,局所的なプロパティ収束の反復を$ell_p-$で行うような非スパース性プロモート正規化問題について検討する。
論文 参考訳(メタデータ) (2024-07-24T12:15:59Z) - Efficient Low-rank Identification via Accelerated Iteratively Reweighted Nuclear Norm Minimization [8.879403568685499]
パラメータの平滑化に適応的な更新戦略を導入する。
この振る舞いは、アルゴリズムを数回繰り返した後に、効果的に問題を解決するものに変えます。
すべてのイテレーションが重要なものであることを保証し、グローバルに提案された実験を証明します。
論文 参考訳(メタデータ) (2024-06-22T02:37:13Z) - Faster Riemannian Newton-type Optimization by Subsampling and Cubic
Regularization [3.867143522757309]
この研究は、制約集合が多様体構造を意味するような制約付き大規模非制約最適化に関するものである。
本稿では,収束性の向上と計算コストの削減を目的とした2階サドル最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-22T00:37:44Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Faster Algorithm and Sharper Analysis for Constrained Markov Decision
Process [56.55075925645864]
制約付き意思決定プロセス (CMDP) の問題点について検討し, エージェントは, 複数の制約を条件として, 期待される累積割引報酬を最大化することを目的とする。
新しいユーティリティ・デュアル凸法は、正規化ポリシー、双対正則化、ネステロフの勾配降下双対という3つの要素の新たな統合によって提案される。
これは、凸制約を受ける全ての複雑性最適化に対して、非凸CMDP問題が$mathcal O (1/epsilon)$の低い境界に達する最初の実演である。
論文 参考訳(メタデータ) (2021-10-20T02:57:21Z) - Zeroth and First Order Stochastic Frank-Wolfe Algorithms for Constrained
Optimization [13.170519806372075]
2組の制約を持つ凸最適化の問題は、半定値プログラミングの文脈で頻繁に発生する。
最初の制約セットへのプロジェクションは困難であるため、プロジェクションフリーなアルゴリズムを探索する必要がある。
提案アルゴリズムの有効性は, スパース行列推定, 半定緩和によるクラスタリング, および一様スペースカット問題の適用性について検証した。
論文 参考訳(メタデータ) (2021-07-14T08:01:30Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。