論文の概要: Muddling Labels for Regularization, a novel approach to generalization
- arxiv url: http://arxiv.org/abs/2102.08769v1
- Date: Wed, 17 Feb 2021 14:02:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:52:00.673023
- Title: Muddling Labels for Regularization, a novel approach to generalization
- Title(参考訳): 正規化のためのマッドリングラベル : 一般化への新しいアプローチ
- Authors: Karim Lounici, Katia Meziani and Benjamin Riu
- Abstract要約: 一般化は機械学習の中心的な問題である。
本稿では,データ分割のない一般化を実現する新しい手法を提案する。
これはモデルが過度に適合する傾向を直接定量化する新しいリスク尺度に基づいている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalization is a central problem in Machine Learning. Indeed most
prediction methods require careful calibration of hyperparameters usually
carried out on a hold-out \textit{validation} dataset to achieve
generalization. The main goal of this paper is to introduce a novel approach to
achieve generalization without any data splitting, which is based on a new risk
measure which directly quantifies a model's tendency to overfit. To fully
understand the intuition and advantages of this new approach, we illustrate it
in the simple linear regression model ($Y=X\beta+\xi$) where we develop a new
criterion. We highlight how this criterion is a good proxy for the true
generalization risk. Next, we derive different procedures which tackle several
structures simultaneously (correlation, sparsity,...). Noticeably, these
procedures \textbf{concomitantly} train the model and calibrate the
hyperparameters. In addition, these procedures can be implemented via classical
gradient descent methods when the criterion is differentiable w.r.t. the
hyperparameters. Our numerical experiments reveal that our procedures are
computationally feasible and compare favorably to the popular approach (Ridge,
LASSO and Elastic-Net combined with grid-search cross-validation) in term of
generalization. They also outperform the baseline on two additional tasks:
estimation and support recovery of $\beta$. Moreover, our procedures do not
require any expertise for the calibration of the initial parameters which
remain the same for all the datasets we experimented on.
- Abstract(参考訳): 一般化は機械学習の中心的な問題である。
実際、ほとんどの予測方法は、一般化を達成するために通常保留の \textit{validation}データセット上で実行されるハイパーパラメータの注意深いキャリブレーションを必要とする。
本論文の主な目標は、データ分割なしに一般化を実現する新しいアプローチを導入することである。これは、モデルがオーバーフィットする傾向を直接定量化する新しいリスク尺度に基づいている。
この新しいアプローチの直観と利点を十分に理解するために、これを新しい基準を開発する単純な線形回帰モデル(Y=X\beta+\xi$)で説明する。
この基準が真の一般化リスクのよいプロキシであることを強調します。
次に、複数の構造(相関、疎度など)を同時に取り組むさまざまな手順を導き出します。
特に、これらの手順 \textbf{concomitantly} はモデルを訓練し、ハイパーパラメータをキャリブレーションする。
さらに、基準が微分可能なw.r.tである場合、これらの手順は古典的な勾配降下法を介して実施することができる。
ハイパーパラメータです
数値実験により,我々の手法は計算可能であり,一般の手法(Ridge,LASSO,Elastic-Netとグリッドサーチクロスバリデーションを併用)と比較できることがわかった。
さらに2つの追加タスクでベースラインを上回り、$\beta$のリカバリとサポートをサポートする。
さらに、私たちの手順は、実験したすべてのデータセットで同じままの初期パラメータの校正に関する専門知識を必要としません。
関連論文リスト
- A Statistical Theory of Regularization-Based Continual Learning [10.899175512941053]
線形回帰タスクの順序に基づく正規化に基づく連続学習の統計的解析を行う。
まず、全てのデータが同時に利用可能であるかのように得られたオラクル推定器の収束率を導出する。
理論解析の副産物は、早期停止と一般化された$ell$-regularizationの等価性である。
論文 参考訳(メタデータ) (2024-06-10T12:25:13Z) - Gradient-based bilevel optimization for multi-penalty Ridge regression
through matrix differential calculus [0.46040036610482665]
我々は,l2-正則化を用いた線形回帰問題に対する勾配に基づくアプローチを導入する。
提案手法はLASSO, Ridge, Elastic Netレグレッションよりも優れていることを示す。
勾配の解析は、自動微分と比較して計算時間の観点からより効率的であることが証明されている。
論文 参考訳(メタデータ) (2023-11-23T20:03:51Z) - Toward Theoretical Guidance for Two Common Questions in Practical
Cross-Validation based Hyperparameter Selection [72.76113104079678]
クロスバリデーションに基づくハイパーパラメータ選択における2つの一般的な質問に対する最初の理論的治療について述べる。
これらの一般化は、少なくとも、常に再トレーニングを行うか、再トレーニングを行わないかを常に実行可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T16:37:12Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Squared $\ell_2$ Norm as Consistency Loss for Leveraging Augmented Data
to Learn Robust and Invariant Representations [76.85274970052762]
元のサンプルと拡張されたサンプルの埋め込み/表現の距離を規則化することは、ニューラルネットワークの堅牢性を改善するための一般的なテクニックである。
本稿では、これらの様々な正規化選択について検討し、埋め込みの正規化方法の理解を深める。
私たちが特定したジェネリックアプローチ(squared $ell$ regularized augmentation)は、それぞれ1つのタスクのために特別に設計されたいくつかの手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-25T22:40:09Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Optimizing generalization on the train set: a novel gradient-based
framework to train parameters and hyperparameters simultaneously [0.0]
一般化は機械学習における中心的な問題である。
本稿では,新たなリスク尺度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T18:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。