論文の概要: Tuning-free ridge estimators for high-dimensional generalized linear
models
- arxiv url: http://arxiv.org/abs/2002.11916v1
- Date: Thu, 27 Feb 2020 05:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 09:25:59.693446
- Title: Tuning-free ridge estimators for high-dimensional generalized linear
models
- Title(参考訳): 高次元一般化線形モデルに対するチューニング自由尾根推定器
- Authors: Shih-Ting Huang, Fang Xie, and Johannes Lederer
- Abstract要約: リッジ推定器は、チューニングパラメータを完全に回避できるように修正可能であることを示す。
また、これらの修正版は、標準リッジ推定器とクロスバリデーションを組み合わせた経験的予測精度を向上させることができることを示した。
- 参考スコア(独自算出の注目度): 3.383670923637875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ridge estimators regularize the squared Euclidean lengths of parameters. Such
estimators are mathematically and computationally attractive but involve tuning
parameters that can be difficult to calibrate. In this paper, we show that
ridge estimators can be modified such that tuning parameters can be avoided
altogether. We also show that these modified versions can improve on the
empirical prediction accuracies of standard ridge estimators combined with
cross-validation, and we provide first theoretical guarantees.
- Abstract(参考訳): リッジ推定器は2乗ユークリッド長のパラメータを正規化する。
このような推定器は数理的にも計算的にも魅力的であるが、校正が難しいチューニングパラメータが伴う。
本稿では,リッジ推定器を調整パラメータを完全に回避できるように修正可能であることを示す。
また、これらの修正版は、標準リッジ推定器とクロスバリデーションを組み合わせることで、経験的予測精度を向上させることができることを示す。
関連論文リスト
- Optimizing Estimators of Squared Calibration Errors in Classification [2.3020018305241337]
本稿では,2乗キャリブレーション誤差の推定器の比較と最適化を可能にする平均二乗誤差に基づくリスクを提案する。
キャリブレーション誤差を推定する際のトレーニングバリデーションテストパイプラインを提案する。
論文 参考訳(メタデータ) (2024-10-09T15:58:06Z) - Probabilistic Parameter Estimators and Calibration Metrics for Pose Estimation from Image Features [30.85393323542915]
本稿では,実時間における測定の不確実性を考慮した確率的パラメータ推定の課題に対処する。
本稿では,最小二乗サンプリング法,線形近似法,確率的プログラミング推定法という3つの確率的パラメータ推定手法を提案する。
線形近似推定器は、他の手法よりも格段に高速にシャープで精度の良いポーズ予測を生成できるが、特定のシナリオにおいて過信な予測をもたらす可能性があることを実証する。
論文 参考訳(メタデータ) (2024-07-23T07:02:01Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Better Uncertainty Calibration via Proper Scores for Classification and
Beyond [15.981380319863527]
各校正誤差を適切なスコアに関連付ける適切な校正誤差の枠組みを導入する。
この関係は、モデルのキャリブレーションの改善を確実に定量化するために利用することができる。
論文 参考訳(メタデータ) (2022-03-15T12:46:08Z) - Tuned Regularized Estimators for Linear Regression via Covariance
Fitting [17.46329281993348]
線形モデルに対する調律正規化パラメータ推定器の探索問題を考える。
3つの既知の最適線形推定器がより広いクラスの推定器に属することを示す。
得られた推定器のクラスは、既知の正規化推定器のチューニングバージョンを得ることを示す。
論文 参考訳(メタデータ) (2022-01-21T16:08:08Z) - Nonparametric Score Estimators [49.42469547970041]
未知分布によって生成されたサンプルの集合からスコアを推定することは確率モデルの推論と学習における基本的なタスクである。
正規化非パラメトリック回帰の枠組みの下で、これらの推定器の統一的なビューを提供する。
カールフリーカーネルと高速収束による計算効果を享受する反復正規化に基づくスコア推定器を提案する。
論文 参考訳(メタデータ) (2020-05-20T15:01:03Z) - SUMO: Unbiased Estimation of Log Marginal Probability for Latent
Variable Models [80.22609163316459]
無限級数のランダム化トランケーションに基づく潜在変数モデルに対して、ログ境界確率の非バイアス推定器とその勾配を導入する。
推定器を用いてトレーニングしたモデルは、同じ平均計算コストに対して、標準的な重要度サンプリングに基づくアプローチよりも優れたテストセット確率を与えることを示す。
論文 参考訳(メタデータ) (2020-04-01T11:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。