論文の概要: A Novel Fast Exact Subproblem Solver for Stochastic Quasi-Newton Cubic
Regularized Optimization
- arxiv url: http://arxiv.org/abs/2204.09116v1
- Date: Tue, 19 Apr 2022 20:25:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 13:53:32.020968
- Title: A Novel Fast Exact Subproblem Solver for Stochastic Quasi-Newton Cubic
Regularized Optimization
- Title(参考訳): 確率的準ニュートン立方晶正規化最適化のための新しい高速完全部分問題解法
- Authors: Jarad Forristal, Joshua Griffin, Wenwen Zhou, Seyedalireza Yektamaram
- Abstract要約: 本稿では,大規模非制約最適化のための3乗法 (ARC) を用いた適応正規化について述べる。
我々の新しいアプローチであるARCLQNは、最小限のチューニングを伴うモダンと比較される。
- 参考スコア(独自算出の注目度): 0.38233569758620045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we describe an Adaptive Regularization using Cubics (ARC) method
for large-scale nonconvex unconstrained optimization using Limited-memory
Quasi-Newton (LQN) matrices. ARC methods are a relatively new family of
optimization strategies that utilize a cubic-regularization (CR) term in place
of trust-regions and line-searches. LQN methods offer a large-scale alternative
to using explicit second-order information by taking identical inputs to those
used by popular first-order methods such as stochastic gradient descent (SGD).
Solving the CR subproblem exactly requires Newton's method, yet using
properties of the internal structure of LQN matrices, we are able to find exact
solutions to the CR subproblem in a matrix-free manner, providing large
speedups and scaling into modern size requirements. Additionally, we expand
upon previous ARC work and explicitly incorporate first-order updates into our
algorithm. We provide experimental results when the SR1 update is used, which
show substantial speed-ups and competitive performance compared to Adam and
other second order optimizers on deep neural networks (DNNs). We find that our
new approach, ARCLQN, compares to modern optimizers with minimal tuning, a
common pain-point for second order methods.
- Abstract(参考訳): 本研究では,LQN(Limited-Memory Quasi-Newton)行列を用いた大規模非凸非制約最適化のためのCubics(ARC)法を用いた適応正規化について述べる。
ARC法は信頼領域と直線探索の代わりに3次正規化(CR)項を利用する比較的新しい最適化手法である。
LQN法は、確率勾配勾配 (SGD) のような一般的な一階法で使われるものと同一の入力をすることで、明示的な二階情報を使用するより大規模な代替手段を提供する。
CRサブプロブレムを正確に解くためにはニュートン法が必要であるが、LQN行列の内部構造の性質を用いて、CRサブプロブレムの正確な解を行列のない方法で見つけることができ、大きなスピードアップと現代的なサイズ要求へのスケーリングが可能になる。
さらに、従来のARC処理を拡張し、アルゴリズムに一階更新を明示的に組み込む。
ニューラルネットワーク(dnn)上でのadamや他の第2次最適化システムと比較して,sr1アップデートの速度向上と競合性を示す実験結果を提供する。
当社の新しいアプローチであるarclqnは,2次メソッドに共通する痛点である,最小チューニングによる現代的なオプティマイザと比較するものです。
関連論文リスト
- SGD with Partial Hessian for Deep Neural Networks Optimization [18.78728272603732]
本稿では,チャネルワイドパラメータを更新するための2次行列と,他のパラメータを更新するための1次勾配降下(SGD)アルゴリズムを組み合わせた化合物を提案する。
一階述語と比較して、最適化を支援するためにヘッセン行列からの一定の量の情報を採用するが、既存の二階述語一般化と比較すると、一階述語一般化の性能は不正確である。
論文 参考訳(メタデータ) (2024-03-05T06:10:21Z) - l1-norm regularized l1-norm best-fit lines [3.0963566281269594]
簡単な比率とソート手法を用いた新しいフィッティング法を提案する。
提案アルゴリズムは、O$(n2 m log n)$の最悪の時間複雑性を示し、ある場合にはスパース部分空間に対する大域的最適性を達成する。
論文 参考訳(メタデータ) (2024-02-26T16:30:58Z) - AdaSub: Stochastic Optimization Using Second-Order Information in
Low-Dimensional Subspaces [0.0]
本稿では,低次元部分空間における2階情報に基づく探索方向の探索アルゴリズムであるAdaSubを紹介する。
一階法と比較して、二階法は収束特性が優れているが、繰り返しごとにヘッセン行列を計算する必要があるため、計算コストが過大になる。
予備的な数値結果から、AdaSubは所定の精度に達するのに必要なイテレーションの時間と回数で、一般的なイテレーションを超越していることが示される。
論文 参考訳(メタデータ) (2023-10-30T22:24:23Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - AskewSGD : An Annealed interval-constrained Optimisation method to train
Quantized Neural Networks [12.229154524476405]
我々は、深層ニューラルネットワーク(DNN)を量子化重みでトレーニングするための新しいアルゴリズム、Annealed Skewed SGD - AskewSGDを開発した。
アクティブなセットと実行可能な方向を持つアルゴリズムとは異なり、AskewSGDは実行可能な全セットの下でのプロジェクションや最適化を避けている。
実験結果から,AskewSGDアルゴリズムは古典的ベンチマークの手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2022-11-07T18:13:44Z) - Explicit Second-Order Min-Max Optimization Methods with Optimal Convergence Guarantee [86.05440220344755]
我々は,非制約のmin-max最適化問題のグローバルなサドル点を求めるために,不正確な正規化ニュートン型手法を提案し,解析する。
提案手法は有界集合内に留まるイテレートを生成し、その反復は制限関数の項で$O(epsilon-2/3)$内の$epsilon$-saddle点に収束することを示す。
論文 参考訳(メタデータ) (2022-10-23T21:24:37Z) - SCORE: Approximating Curvature Information under Self-Concordant
Regularization [0.0]
本稿では,新たな入力を受信するたびに最小化速度を更新する自己調和正規化アルゴリズム(GGN-SCORE)を提案する。
提案アルゴリズムはヘッセン行列の2階情報構造を利用して計算オーバーヘッドを削減する。
論文 参考訳(メタデータ) (2021-12-14T13:03:04Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。