論文の概要: Estimation of sparse linear regression coefficients under
$L$-subexponential covariates
- arxiv url: http://arxiv.org/abs/2304.11958v1
- Date: Mon, 24 Apr 2023 09:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 15:32:44.944475
- Title: Estimation of sparse linear regression coefficients under
$L$-subexponential covariates
- Title(参考訳): l$-subexponential covariates におけるスパース線形回帰係数の推定
- Authors: Takeyuki Sasai
- Abstract要約: 共変量ベクトルが$L$-subexponentialランダムベクトルから引き出されるとき、線形回帰のスパース係数を推定するタスクに対処する。
ガウス確率ベクトルに対して得られた値と同一の誤差を、より強い条件を必要とせず、定数要素まで提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address a task of estimating sparse coefficients in linear regression when
the covariates are drawn from an $L$-subexponential random vector, which
belongs to a class of distributions having heavier tails than a Gaussian random
vector. Prior works have tackled this issue by assuming that the covariates are
drawn from an $L$-subexponential random vector and have established error
bounds that resemble those derived for Gaussian random vectors. However, these
previous methods require stronger conditions to derive error bounds than those
employed for Gaussian random vectors. In the present paper, we present an error
bound identical to that obtained for Gaussian random vectors, up to constant
factors, without requiring stronger conditions, even when the covariates are
drawn from an $L$-subexponential random vector. Somewhat interestingly, we
utilize an $\ell_1$-penalized Huber regression, that is recognized for its
robustness to heavy-tailed random noises, not covariates. We believe that the
present paper reveals a new aspect of the $\ell_1$-penalized Huber regression.
- Abstract(参考訳): ガウス確率ベクトルよりも重いテールを持つ分布のクラスに属する$l$-subexponential random vectorから共変数を引き出すとき、線形回帰におけるスパース係数を推定するタスクに対処する。
以前の研究は、共変数が$l$-subexponential random vectorから引き出され、ガウス確率ベクトルに導かれるものと類似した誤差境界を持つと仮定することでこの問題に取り組んできた。
しかし、これらの従来の手法はガウスのランダムベクトルよりも強い条件で誤差境界を導出する必要がある。
本稿では,ガウス確率ベクトルに対して得られた値と同一の誤差を,$L$-subexponentialランダムベクトルから共変量を引き出す場合であっても,より強い条件を必要とせず,定数因子まで有する。
興味深いことに、我々は$\ell_1$-penalized Huberレグレッションを利用しており、これは共変量ではなく重み付きランダムノイズに対するロバストさで認識されている。
本稿では,$\ell_1$-penalized Huberレグレッションの新たな側面を明らかにする。
関連論文リスト
- Dimension free ridge regression [10.434481202633458]
我々は、リッジ回帰のバイアスとばらつきの観点から、すなわちデータ上のリッジ回帰を再考し、等価なシーケンスモデルのバイアスとばらつきの観点から、リッジ回帰のバイアスとばらつきを考察する。
新しい応用として、定期的に変化するスペクトルを持つヒルベルト共変量に対して、完全に明示的で鋭い尾根回帰特性を得る。
論文 参考訳(メタデータ) (2022-10-16T16:01:05Z) - Efficient Truncated Linear Regression with Unknown Noise Variance [26.870279729431328]
雑音のばらつきが不明な場合に, 線形回帰の計算的, 統計的に効率的な推定器を提案する。
提案手法は, トランキャット標本の負の類似度に対して, プロジェクテッド・グラディエント・ディフレッシュを効果的に実装することに基づく。
論文 参考訳(メタデータ) (2022-08-25T12:17:37Z) - Statistical Query Lower Bounds for List-Decodable Linear Regression [55.06171096484622]
本稿では,リスト復号化可能な線形回帰問題について考察する。
我々の主な成果は、この問題に対して$dmathrmpoly (1/alpha)$の統計的クエリ(SQ)の低いバウンダリである。
論文 参考訳(メタデータ) (2021-06-17T17:45:21Z) - A Precise Performance Analysis of Support Vector Regression [105.94855998235232]
我々は,n$の線形測定に応用したハードおよびソフトサポートベクター回帰法について検討した。
得られた結果は、ハードおよびソフトサポートベクトル回帰アルゴリズムの設計に介入するパラメータを最適に調整するために使用される。
論文 参考訳(メタデータ) (2021-05-21T14:26:28Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Computationally and Statistically Efficient Truncated Regression [36.3677715543994]
計算的かつ統計的に効率的な線形回帰の古典的問題に対する推定器を提供する。
提案手法では, トランキャット標本の負の対数類似度に代わることなく, プロジェクテッド・Descent Gradient (PSGD) を用いて推定する。
本稿では,SGDが単一層ニューラルネットワークの雑音活性化関数のパラメータを学習することを示す。
論文 参考訳(メタデータ) (2020-10-22T19:31:30Z) - Estimating Stochastic Linear Combination of Non-linear Regressions
Efficiently and Scalably [23.372021234032363]
サブサンプルサイズが大きくなると、推定誤差が過度に犠牲になることを示す。
私たちの知る限りでは、線形テキスト+確率モデルが保証される最初の研究です。
論文 参考訳(メタデータ) (2020-10-19T07:15:38Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - A Random Matrix Analysis of Random Fourier Features: Beyond the Gaussian
Kernel, a Precise Phase Transition, and the Corresponding Double Descent [85.77233010209368]
本稿では、データサンプルの数が$n$である現実的な環境で、ランダムフーリエ(RFF)回帰の正確さを特徴付けます。
この分析はまた、大きな$n,p,N$のトレーニングとテスト回帰エラーの正確な推定も提供する。
論文 参考訳(メタデータ) (2020-06-09T02:05:40Z) - Asymptotic errors for convex penalized linear regression beyond Gaussian
matrices [23.15629681360836]
雑音線形観測から係数ベクトル$x_0$ in$RN$を学習する問題を考察する。
平均二乗誤差に対する明示的な式を厳密に導出する。
我々の予測は、非常に適度なサイズであっても、数値と非常によく一致していることを示す。
論文 参考訳(メタデータ) (2020-02-11T13:43:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。