論文の概要: Provably tuning the ElasticNet across instances
- arxiv url: http://arxiv.org/abs/2207.10199v1
- Date: Wed, 20 Jul 2022 21:22:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:26:05.515199
- Title: Provably tuning the ElasticNet across instances
- Title(参考訳): おそらくインスタンス間でElasticNetをチューニングする
- Authors: Maria-Florina Balcan, Mikhail Khodak, Dravyansh Sharma, Ameet
Talwalkar
- Abstract要約: 我々は、複数の問題インスタンスにまたがるリッジ回帰、LASSO、ElasticNetの正規化パラメータをチューニングする問題を考察する。
我々の結果は、この重要な問題に対する学習理論による最初の一般的な保証である。
- 参考スコア(独自算出の注目度): 43.4819464987712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An important unresolved challenge in the theory of regularization is to set
the regularization coefficients of popular techniques like the ElasticNet with
general provable guarantees. We consider the problem of tuning the
regularization parameters of Ridge regression, LASSO, and the ElasticNet across
multiple problem instances, a setting that encompasses both cross-validation
and multi-task hyperparameter optimization. We obtain a novel structural result
for the ElasticNet which characterizes the loss as a function of the tuning
parameters as a piecewise-rational function with algebraic boundaries. We use
this to bound the structural complexity of the regularized loss functions and
show generalization guarantees for tuning the ElasticNet regression
coefficients in the statistical setting. We also consider the more challenging
online learning setting, where we show vanishing average expected regret
relative to the optimal parameter pair. We further extend our results to tuning
classification algorithms obtained by thresholding regression fits regularized
by Ridge, LASSO, or ElasticNet. Our results are the first general
learning-theoretic guarantees for this important class of problems that avoid
strong assumptions on the data distribution. Furthermore, our guarantees hold
for both validation and popular information criterion objectives.
- Abstract(参考訳): 正規化理論における重要な未解決の課題は、一般に証明可能な保証を持つElasticNetのような一般的なテクニックの正規化係数を設定することである。
本稿では,複数の問題インスタンスにまたがるリッジ回帰,LASSO,ElasticNetの正規化パラメータの調整の問題について考察する。
代数的境界を持つ断片的有理関数としてチューニングパラメータの関数として損失を特徴付けるElasticNetの新たな構造的結果を得る。
これを正規化損失関数の構造的複雑性に限定し、統計的設定において弾性ネット回帰係数をチューニングするための一般化保証を示す。
また,オンライン学習環境において,最適なパラメータ対に対して平均的な後悔が消失する傾向がみられた。
我々はさらに、Rook、LASSO、ElasticNetによって正規化された回帰適合のしきい値から得られる分類アルゴリズムのチューニングに結果を拡張した。
本研究は,データ分布に対する強い仮定を回避した,この重要な問題に対する一般学習理論の保証である。
さらに,我々の保証は,検証と人気情報基準の両目的に当てはまる。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Gradient-based bilevel optimization for multi-penalty Ridge regression
through matrix differential calculus [0.46040036610482665]
我々は,l2-正則化を用いた線形回帰問題に対する勾配に基づくアプローチを導入する。
提案手法はLASSO, Ridge, Elastic Netレグレッションよりも優れていることを示す。
勾配の解析は、自動微分と比較して計算時間の観点からより効率的であることが証明されている。
論文 参考訳(メタデータ) (2023-11-23T20:03:51Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Regularization, early-stopping and dreaming: a Hopfield-like setup to
address generalization and overfitting [0.0]
正規化損失関数に勾配降下を適用し,最適ネットワークパラメータを求める。
この枠組みの中で、最適なニューロン相互作用行列は、繰り返し学習プロトコルによって修正されたヘビアン核に対応する。
論文 参考訳(メタデータ) (2023-08-01T15:04:30Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - The Benefits of Implicit Regularization from SGD in Least Squares
Problems [116.85246178212616]
勾配降下(SGD)はアルゴリズム正則化効果が強い。
我々は、(正規化されていない)平均SGDで得られる暗黙の正則化とリッジ回帰の明示的な正則化の比較を行う。
論文 参考訳(メタデータ) (2021-08-10T09:56:47Z) - Support estimation in high-dimensional heteroscedastic mean regression [2.28438857884398]
ランダムな設計と、潜在的にヘテロセダスティックで重み付きエラーを伴う線形平均回帰モデルを考える。
我々は,問題のパラメータに依存するチューニングパラメータを備えた,厳密な凸・滑らかなHuber損失関数の変種を用いる。
得られた推定器に対して、$ell_infty$ノルムにおける符号一貫性と最適収束率を示す。
論文 参考訳(メタデータ) (2020-11-03T09:46:31Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - A generalized linear joint trained framework for semi-supervised
learning of sparse features [4.511923587827301]
弾性ネットは、最も広く使われている正規化アルゴリズムの一つである。
本稿では,一般化線形モデル推定の文脈におけるスパース特徴の半教師付き学習のための新しい解を提案する。
論文 参考訳(メタデータ) (2020-06-02T14:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。