論文の概要: Obtaining Adjustable Regularization for Free via Iterate Averaging
- arxiv url: http://arxiv.org/abs/2008.06736v1
- Date: Sat, 15 Aug 2020 15:28:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 20:44:39.176672
- Title: Obtaining Adjustable Regularization for Free via Iterate Averaging
- Title(参考訳): 反復平均化による自由な調整可能な正規化の実現
- Authors: Jingfeng Wu, Vladimir Braverman, Lin F. Yang
- Abstract要約: 最適化のための正規化は、機械学習の過度な適合を避けるための重要なテクニックである。
我々は、任意の強凸かつ滑らかな対象関数上のSGDの繰り返しを正規化された関数に変換する平均化スキームを確立する。
提案手法は,高速化および事前条件最適化手法にも利用できる。
- 参考スコア(独自算出の注目度): 43.75491612671571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regularization for optimization is a crucial technique to avoid overfitting
in machine learning. In order to obtain the best performance, we usually train
a model by tuning the regularization parameters. It becomes costly, however,
when a single round of training takes significant amount of time. Very
recently, Neu and Rosasco show that if we run stochastic gradient descent (SGD)
on linear regression problems, then by averaging the SGD iterates properly, we
obtain a regularized solution. It left open whether the same phenomenon can be
achieved for other optimization problems and algorithms. In this paper, we
establish an averaging scheme that provably converts the iterates of SGD on an
arbitrary strongly convex and smooth objective function to its regularized
counterpart with an adjustable regularization parameter. Our approaches can be
used for accelerated and preconditioned optimization methods as well. We
further show that the same methods work empirically on more general
optimization objectives including neural networks. In sum, we obtain adjustable
regularization for free for a large class of optimization problems and resolve
an open question raised by Neu and Rosasco.
- Abstract(参考訳): 最適化のための規則化は、機械学習の過剰フィットを避けるための重要なテクニックである。
最良の性能を得るためには、通常、正規化パラメータをチューニングしてモデルを訓練する。
しかし、1回のトレーニングがかなりの時間を要すると、コストがかかります。
ごく最近、NeuとRosascoは、線形回帰問題に対して確率勾配降下(SGD)を実行すると、SGDを適切に反復することにより正規化解が得られることを示した。
同様の現象が他の最適化問題やアルゴリズムで実現できるかどうかは明らかでない。
本稿では,任意の凸かつ滑らかな対象関数上でSGDの繰り返しを,調整可能な正規化パラメータを持つ正規化関数に変換する平均化手法を確立する。
提案手法は,高速化および事前条件最適化手法にも利用できる。
さらに,同じ手法がニューラルネットワークを含むより一般的な最適化目標に実証的に作用することを示した。
まとめると、多くの最適化問題に対して自由な調整可能な正則化を求め、Neu と Rosasco が提起した開問題を解決する。
関連論文リスト
- Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - A Particle-based Sparse Gaussian Process Optimizer [5.672919245950197]
本稿では,下降の動的過程を利用した新しいスワム・スワムベースのフレームワークを提案する。
このアプローチの最大の利点は、降下を決定する前に現在の状態についてより深い探索を行うことである。
論文 参考訳(メタデータ) (2022-11-26T09:06:15Z) - Continuation Path with Linear Convergence Rate [18.405645120971496]
経路追従アルゴリズムは、一連のサブプロブレムを順次解決する合成最適化問題によく用いられる。
本稿では,経路追従アルゴリズムの一次双対解析と,対象問題に対する線形収束率を保証するために,各サブプロブレムがどの程度正確に解けるかを決定する。
スパーシリティ誘導ペナルティによる最適化を考慮し、正規化パラメータに対するアクティブセットの変化を分析する。
論文 参考訳(メタデータ) (2021-12-09T18:42:13Z) - STORM+: Fully Adaptive SGD with Momentum for Nonconvex Optimization [74.1615979057429]
本研究では,スムーズな損失関数に対する期待値である非バッチ最適化問題について検討する。
我々の研究は、学習率と運動量パラメータを適応的に設定する新しいアプローチとともに、STORMアルゴリズムの上に構築されている。
論文 参考訳(メタデータ) (2021-11-01T15:43:36Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Bayesian Sparse learning with preconditioned stochastic gradient MCMC
and its applications [5.660384137948734]
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束する。
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束可能であることを示す。
論文 参考訳(メタデータ) (2020-06-29T20:57:20Z) - An adaptive stochastic gradient-free approach for high-dimensional
blackbox optimization [0.0]
本研究では,高次元非平滑化問題に対する適応勾配フリー (ASGF) アプローチを提案する。
本稿では,グローバルな問題と学習タスクのベンチマークにおいて,本手法の性能について述べる。
論文 参考訳(メタデータ) (2020-06-18T22:47:58Z) - Optimizing generalization on the train set: a novel gradient-based
framework to train parameters and hyperparameters simultaneously [0.0]
一般化は機械学習における中心的な問題である。
本稿では,新たなリスク尺度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T18:04:36Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Stochastic batch size for adaptive regularization in deep network
optimization [63.68104397173262]
ディープラーニングフレームワークにおける機械学習問題に適用可能な適応正規化を取り入れた一階最適化アルゴリズムを提案する。
一般的なベンチマークデータセットに適用した従来のネットワークモデルに基づく画像分類タスクを用いて,提案アルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-14T07:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。