論文の概要: Gradient-based bilevel optimization for multi-penalty Ridge regression
through matrix differential calculus
- arxiv url: http://arxiv.org/abs/2311.14182v1
- Date: Thu, 23 Nov 2023 20:03:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 16:28:17.159979
- Title: Gradient-based bilevel optimization for multi-penalty Ridge regression
through matrix differential calculus
- Title(参考訳): 行列微分計算による多重ペナルティリッジ回帰の勾配ベースバイレベル最適化
- Authors: Gabriele Maroni, Loris Cannelli, Dario Piga
- Abstract要約: 我々は,l2-正則化を用いた線形回帰問題に対する勾配に基づくアプローチを導入する。
提案手法はLASSO, Ridge, Elastic Netレグレッションよりも優れていることを示す。
勾配の解析は、自動微分と比較して計算時間の観点からより効率的であることが証明されている。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Common regularization algorithms for linear regression, such as LASSO and
Ridge regression, rely on a regularization hyperparameter that balances the
tradeoff between minimizing the fitting error and the norm of the learned model
coefficients. As this hyperparameter is scalar, it can be easily selected via
random or grid search optimizing a cross-validation criterion. However, using a
scalar hyperparameter limits the algorithm's flexibility and potential for
better generalization. In this paper, we address the problem of linear
regression with l2-regularization, where a different regularization
hyperparameter is associated with each input variable. We optimize these
hyperparameters using a gradient-based approach, wherein the gradient of a
cross-validation criterion with respect to the regularization hyperparameters
is computed analytically through matrix differential calculus. Additionally, we
introduce two strategies tailored for sparse model learning problems aiming at
reducing the risk of overfitting to the validation data. Numerical examples
demonstrate that our multi-hyperparameter regularization approach outperforms
LASSO, Ridge, and Elastic Net regression. Moreover, the analytical computation
of the gradient proves to be more efficient in terms of computational time
compared to automatic differentiation, especially when handling a large number
of input variables. Application to the identification of over-parameterized
Linear Parameter-Varying models is also presented.
- Abstract(参考訳): LASSOやリッジ回帰のような線形回帰の共通正規化アルゴリズムは、適合誤差と学習モデル係数のノルムとのトレードオフを最小化する正規化ハイパーパラメータに依存している。
このハイパーパラメータはスカラーであるため、クロスバリデーション基準を最適化するランダムまたはグリッドサーチにより容易に選択できる。
しかし、スカラーハイパーパラメーターを用いることで、アルゴリズムの柔軟性と一般化の可能性が制限される。
本稿では,各入力変数に異なる正規化ハイパーパラメータが関連付けられるl2正規化を伴う線形回帰問題に対処する。
これらのハイパーパラメータを勾配に基づく手法で最適化し、正規化ハイパーパラメータに対するクロスバリデーション基準の勾配を行列微分計算により解析的に計算する。
さらに,検証データへの過剰適合のリスクを低減することを目的とした,スパースモデル学習問題に適した2つの戦略を提案する。
数値的な例は、我々のマルチハイパーパラメータ正規化アプローチがLASSO、リッジ、弾性ネット回帰よりも優れていることを示している。
さらに, 勾配の解析計算は, 計算時間の面では, 特に多くの入力変数を扱う場合には, 自動微分よりも効率的であることが証明された。
過パラメータ付き線形パラメータ変動モデルの同定にも応用した。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Stability-Adjusted Cross-Validation for Sparse Linear Regression [5.156484100374059]
k倍のクロスバリデーションのようなクロスバリデーション技術はスパース回帰の計算コストを大幅に増大させる。
クロスバリデーションメトリックの重み付け和とモデルの出力安定性を最小化するハイパーパラメータの選択を提案する。
我々の信頼度調整手順は、13の実世界のデータセット上で、テストセットエラーを平均で2%削減する。
論文 参考訳(メタデータ) (2023-06-26T17:02:45Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - An adaptive shortest-solution guided decimation approach to sparse
high-dimensional linear regression [2.3759847811293766]
ASSDは最短解誘導アルゴリズムから適応され、ASSDと呼ばれる。
ASSDは、実世界の応用で遭遇する高度に相関した測定行列を持つ線形回帰問題に特に適している。
論文 参考訳(メタデータ) (2022-11-28T04:29:57Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Sliced gradient-enhanced Kriging for high-dimensional function
approximation [2.8228516010000617]
Gradient-enhanced Kriging (GE-Kriging)は、高価な計算モデルを近似するために確立されたサロゲートモデリング技術である。
固有相関行列のサイズのため、高次元問題に対して実用的でない傾向にある。
SGE-Kriging (Sliced GE-Kriging, SGE-Kriging) と呼ばれる新しい手法を開発し, 相関行列のサイズを小さくする。
その結果,SGE-Krigingモデルでは,標準モデルに匹敵する精度と堅牢性を特徴とするが,トレーニングコストの低減が図られた。
論文 参考訳(メタデータ) (2022-04-05T07:27:14Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Bayesian Sparse learning with preconditioned stochastic gradient MCMC
and its applications [5.660384137948734]
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束する。
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束可能であることを示す。
論文 参考訳(メタデータ) (2020-06-29T20:57:20Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。