論文の概要: Online Hyperparameter Search Interleaved with Proximal Parameter Updates
- arxiv url: http://arxiv.org/abs/2004.02769v1
- Date: Mon, 6 Apr 2020 15:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:10:25.726039
- Title: Online Hyperparameter Search Interleaved with Proximal Parameter Updates
- Title(参考訳): 近位パラメータ更新でインターリーブされたオンラインハイパーパラメータ検索
- Authors: Luis Miguel Lopez-Ramos, Baltasar Beferull-Lozano
- Abstract要約: 本研究では,近似勾配法の構造に依存する手法を開発し,スムーズなコスト関数を必要としない。
そのような方法は、Leave-one-out (LOO)-validated LassoおよびGroup Lassoに適用される。
数値実験により,提案手法の収束度をLOO検証誤差曲線の局所最適値に相関させる。
- 参考スコア(独自算出の注目度): 9.543667840503739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a clear need for efficient algorithms to tune hyperparameters for
statistical learning schemes, since the commonly applied search methods (such
as grid search with N-fold cross-validation) are inefficient and/or
approximate. Previously existing algorithms that efficiently search for
hyperparameters relying on the smoothness of the cost function cannot be
applied in problems such as Lasso regression.
In this contribution, we develop a hyperparameter optimization method that
relies on the structure of proximal gradient methods and does not require a
smooth cost function. Such a method is applied to Leave-one-out (LOO)-validated
Lasso and Group Lasso to yield efficient, data-driven, hyperparameter
optimization algorithms.
Numerical experiments corroborate the convergence of the proposed method to a
local optimum of the LOO validation error curve, and the efficiency of its
approximations.
- Abstract(参考訳): 一般に用いられている探索手法(N-fold cross-validation を用いたグリッドサーチなど)は非効率で近似的であるため、統計学習スキームのためにハイパーパラメータをチューニングするための効率的なアルゴリズムの必要性は明らかである。
従来、コスト関数の滑らかさに依存するハイパーパラメータを効率的に探索するアルゴリズムは、ラッソ回帰のような問題には適用できない。
本研究では,近似勾配法の構造に依存し,スムーズなコスト関数を必要としないハイパーパラメータ最適化法を開発した。
そのような手法がLeave-one-out (LOO)-validated Lasso と Group Lasso に適用され、効率的でデータ駆動のハイパーパラメータ最適化アルゴリズムが得られる。
数値実験により提案手法の収束度を, LOO検証誤差曲線の局所的最適度と近似の効率を相関させる。
関連論文リスト
- Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - A Globally Convergent Gradient-based Bilevel Hyperparameter Optimization
Method [0.0]
ハイパーパラメータ最適化問題の解法として,勾配に基づく双レベル法を提案する。
提案手法は, より低い計算量に収束し, テストセットをより良く一般化するモデルに導かれることを示す。
論文 参考訳(メタデータ) (2022-08-25T14:25:16Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Optimizing Approximate Leave-one-out Cross-validation to Tune
Hyperparameters [0.0]
ヘシアン勾配と ALO の勾配を計算するための効率的な公式を導出する。
本稿では,様々な実世界のデータセットに対して,正規化ロジスティック回帰とリッジ回帰のハイパーパラメータを求めることで,提案手法の有用性を示す。
論文 参考訳(メタデータ) (2020-11-20T04:57:41Z) - Efficient Hyperparameter Tuning with Dynamic Accuracy Derivative-Free
Optimization [0.27074235008521236]
我々は,最近の動的精度微分自由最適化法をハイパーパラメータチューニングに適用する。
この方法は、収束保証を維持しながら、学習問題の不正確な評価を可能にする。
固定精度アプローチと比較して頑健さと効率性を実証する。
論文 参考訳(メタデータ) (2020-11-06T00:59:51Z) - Efficient hyperparameter optimization by way of PAC-Bayes bound
minimization [4.191847852775072]
本稿では,期待外誤差に縛られた確率的近似ベイズ(PAC-Bayes)と等価な別の目的について述べる。
そして、この目的を最小化するために、効率的な勾配に基づくアルゴリズムを考案する。
論文 参考訳(メタデータ) (2020-08-14T15:54:51Z) - A Gradient-based Bilevel Optimization Approach for Tuning
Hyperparameters in Machine Learning [0.0]
本稿では,ハイパーパラメータ最適化問題の解法として,二段階解法を提案する。
提案手法は汎用的で,任意の種類の機械学習アルゴリズムに容易に適用可能である。
提案アルゴリズムの背景にある理論を議論し、2つのデータセットについて広範な計算研究を行う。
論文 参考訳(メタデータ) (2020-07-21T18:15:08Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z) - Support recovery and sup-norm convergence rates for sparse pivotal
estimation [79.13844065776928]
高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
非滑らかで滑らかな単一タスクとマルチタスク正方形ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
論文 参考訳(メタデータ) (2020-01-15T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。