論文の概要: Algebraic and Statistical Properties of the Ordinary Least Squares
Interpolator
- arxiv url: http://arxiv.org/abs/2309.15769v1
- Date: Wed, 27 Sep 2023 16:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 12:53:45.602520
- Title: Algebraic and Statistical Properties of the Ordinary Least Squares
Interpolator
- Title(参考訳): 普通最小方形補間器の代数的および統計的特性
- Authors: Dennis Shen, Dogyoon Song, Peng Ding and Jasjeet S. Sekhon
- Abstract要約: 我々は最小$ell$-norm OLS補間器について結果を提供する。
その結果、OLS補間器が一般化し、因果推論に実質的な意味を持つ能力を理解するのに役立ちます。
ガウス・マルコフモデルの下では、ガウス・マルコフの定理の高次元拡張のような統計的結果を示す。
- 参考スコア(独自算出の注目度): 3.749230667146314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning research has uncovered the phenomenon of benign overfitting for
over-parameterized statistical models, which has drawn significant theoretical
interest in recent years. Given its simplicity and practicality, the ordinary
least squares (OLS) interpolator has become essential to gain foundational
insights into this phenomenon. While properties of OLS are well established in
classical settings, its behavior in high-dimensional settings is less explored
(unlike for ridge or lasso regression) though significant progress has been
made of late. We contribute to this growing literature by providing fundamental
algebraic and statistical results for the minimum $\ell_2$-norm OLS
interpolator. In particular, we provide high-dimensional algebraic equivalents
of (i) the leave-$k$-out residual formula, (ii) Cochran's formula, and (iii)
the Frisch-Waugh-Lovell theorem. These results aid in understanding the OLS
interpolator's ability to generalize and have substantive implications for
causal inference. Additionally, under the Gauss-Markov model, we present
statistical results such as a high-dimensional extension of the Gauss-Markov
theorem and an analysis of variance estimation under homoskedastic errors. To
substantiate our theoretical contributions, we conduct simulation studies that
further explore the stochastic properties of the OLS interpolator.
- Abstract(参考訳): 深層学習研究により、過度パラメータ化統計モデルに対する良性過剰適合現象が明らかにされ、近年は重要な理論的な関心を集めている。
その単純さと実用性を考えると、通常の最小二乗(ols)補間器は、この現象に関する基礎的な洞察を得るために必須である。
OLSの特性は古典的な設定ではよく確立されているが、高次元環境での挙動は(尾根やラッソレグレッションとは異なり)解明されていない。
我々は、最小$$\ell_2$-norm OLS補間子に対して代数的および統計的結果を提供することにより、この成長する文献に寄与する。
特に、我々は高次元代数的同値を与える。
(i)残余公式の残高-$k$-out
(ii)コクランの公式、及び
(iii) フリッシュ=ヴォー=ラヴエルの定理。
これらの結果は、OLS補間器の一般化能力の理解に役立ち、因果推論に実質的な意味を持つ。
さらに,gauss-markovモデルの下では,gauss-markov定理の高次元拡張やホモスケシュタスティック誤差下の分散推定の解析などの統計的結果を示す。
理論的な貢献を証明するために、我々はols補間器の確率的性質をさらに探究するシミュレーション研究を行う。
関連論文リスト
- Method-of-Moments Inference for GLMs and Doubly Robust Functionals under Proportional Asymptotics [30.324051162373973]
高次元一般化線形モデル(GLM)における回帰係数と信号対雑音比の推定について考察する。
我々は、推論対象の一貫性と漸近的正規性(CAN)推定を導出する。
理論的結果を数値実験と既存文献との比較で補完する。
論文 参考訳(メタデータ) (2024-08-12T12:43:30Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Towards Convergence Rates for Parameter Estimation in Gaussian-gated
Mixture of Experts [40.24720443257405]
ガウスゲートMOEモデルにおける最大推定値(MLE)の収束解析を行う。
以上の結果から,MLEはガウスゲーティング関数の位置パラメータの2つの相補的な設定の下で異なる挙動を示すことが明らかとなった。
特に、これらの挙動は2つの異なる方程式系の可解性によって特徴づけられる。
論文 参考訳(メタデータ) (2023-05-12T16:02:19Z) - Adaptive LASSO estimation for functional hidden dynamic geostatistical
model [69.10717733870575]
関数型隠れ統計モデル(f-HD)のためのペナル化極大推定器(PMLE)に基づく新しいモデル選択アルゴリズムを提案する。
このアルゴリズムは反復最適化に基づいており、適応最小限の収縮・セレクタ演算子(GMSOLAS)ペナルティ関数を用いており、これは不給付のf-HD最大線量推定器によって得られる。
論文 参考訳(メタデータ) (2022-08-10T19:17:45Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z) - A Farewell to the Bias-Variance Tradeoff? An Overview of the Theory of
Overparameterized Machine Learning [37.01683478234978]
機械学習(ML)の急速な進歩は、この分野の長年のドグマに挑戦する科学的な疑問を数多く提起している。
最も重要なライドルの1つは、パラメータ化されたモデルの優れた経験的一般化である。
論文 参考訳(メタデータ) (2021-09-06T10:48:40Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - Non-asymptotic oracle inequalities for the Lasso in high-dimensional mixture of experts [2.794896499906838]
ソフトマックスゲーティング関数を持つガウスモデルとガウス専門家のクラスを考察する。
我々の知る限りでは、SGMoEモデルの$l_1$-regularization特性を非漸近的観点から初めて研究する。
我々は、SGMoEモデルに対するラッソ推定器のKulback-Leibler損失の非漸近的理論的制御を保証するために、ラッソペナルティの正規化パラメータの低い境界を与える。
論文 参考訳(メタデータ) (2020-09-22T15:23:35Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Learning CHARME models with neural networks [1.5362025549031046]
我々はCHARME(Conditional Heteroscedastic Autoregressive Mixture of Experts)と呼ばれるモデルを考える。
そこで本研究では,NNに基づく自己回帰関数の学習理論を開発した。
論文 参考訳(メタデータ) (2020-02-08T21:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。