論文の概要: Tuned Regularized Estimators for Linear Regression via Covariance
Fitting
- arxiv url: http://arxiv.org/abs/2201.08756v1
- Date: Fri, 21 Jan 2022 16:08:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 14:19:48.435700
- Title: Tuned Regularized Estimators for Linear Regression via Covariance
Fitting
- Title(参考訳): 共分散フィッティングによる線形回帰の調整正規化推定器
- Authors: Per Mattsson, Dave Zachariah and Petre Stoica
- Abstract要約: 線形モデルに対する調律正規化パラメータ推定器の探索問題を考える。
3つの既知の最適線形推定器がより広いクラスの推定器に属することを示す。
得られた推定器のクラスは、既知の正規化推定器のチューニングバージョンを得ることを示す。
- 参考スコア(独自算出の注目度): 17.46329281993348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of finding tuned regularized parameter estimators for
linear models. We start by showing that three known optimal linear estimators
belong to a wider class of estimators that can be formulated as a solution to a
weighted and constrained minimization problem. The optimal weights, however,
are typically unknown in many applications. This begs the question, how should
we choose the weights using only the data? We propose using the covariance
fitting SPICE-methodology to obtain data-adaptive weights and show that the
resulting class of estimators yields tuned versions of known regularized
estimators - such as ridge regression, LASSO, and regularized least absolute
deviation. These theoretical results unify several important estimators under a
common umbrella. The resulting tuned estimators are also shown to be
practically relevant by means of a number of numerical examples.
- Abstract(参考訳): 線形モデルに対する調律正規化パラメータ推定器の探索問題を考える。
まず、3つの既知の最適線形推定器が、重み付き制約付き最小化問題の解として定式化できるより広いクラスの推定器に属することを示す。
しかし、最適重量は一般に多くの応用において未知である。
データのみを使用して重みをどうやって選べばよいのか?
本研究では、データ適応重みを求めるために、共分散適合SPICE法を用い、得られた推定器のクラスが、リッジ回帰、LASSO、正規化最小絶対偏差などの既知の正規化推定器のチューニングバージョンを得ることを示す。
これらの理論的結果は、共通の傘の下でいくつかの重要な推定者を統一する。
結果として得られた調律された推定器は、多くの数値例によって実際に関連があることも示されている。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Error Reduction from Stacked Regressions [12.657895453939298]
積み重ね回帰は、予測精度を高めるために異なる回帰推定器の線形結合を形成するアンサンブル手法である。
本稿では,非負性制約を受ける経験的リスクの正規化バージョンを最小化することにより,これらの重みを類似的に学習する。
適応的縮小効果により、結果として生じる累積推定量は、最も優れた単一推定値よりも人口リスクが厳しく小さい。
論文 参考訳(メタデータ) (2023-09-18T15:42:12Z) - Semi-parametric inference based on adaptively collected data [34.56133468275712]
データ収集における適応性を考慮した重み付き推定式を構築した。
本研究の結果は,正常性の保持に必要な「探索可能性」の度合いを特徴づけるものである。
我々は、標準線形帯域やスパース一般化帯域を含む様々な問題に対する具体的結果を用いて、我々の一般理論を説明する。
論文 参考訳(メタデータ) (2023-03-05T00:45:32Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Flexible Model Aggregation for Quantile Regression [92.63075261170302]
量子回帰は、予測の不確実性を定量化する必要性によって動機付けられた統計学習の基本的な問題である。
条件付き量子モデルの任意の数を集約する手法について検討する。
この論文で検討するモデルはすべて、現代のディープラーニングツールキットに適合します。
論文 参考訳(メタデータ) (2021-02-26T23:21:16Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z) - SUMO: Unbiased Estimation of Log Marginal Probability for Latent
Variable Models [80.22609163316459]
無限級数のランダム化トランケーションに基づく潜在変数モデルに対して、ログ境界確率の非バイアス推定器とその勾配を導入する。
推定器を用いてトレーニングしたモデルは、同じ平均計算コストに対して、標準的な重要度サンプリングに基づくアプローチよりも優れたテストセット確率を与えることを示す。
論文 参考訳(メタデータ) (2020-04-01T11:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。