論文の概要: An adaptive shortest-solution guided decimation approach to sparse
high-dimensional linear regression
- arxiv url: http://arxiv.org/abs/2211.15057v1
- Date: Mon, 28 Nov 2022 04:29:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 20:35:03.742921
- Title: An adaptive shortest-solution guided decimation approach to sparse
high-dimensional linear regression
- Title(参考訳): 疎高次元線形回帰に対する適応的最短解導除法
- Authors: Xue Yu, Yifan Sun, Haijun Zhou
- Abstract要約: ASSDは最短解誘導アルゴリズムから適応され、ASSDと呼ばれる。
ASSDは、実世界の応用で遭遇する高度に相関した測定行列を持つ線形回帰問題に特に適している。
- 参考スコア(独自算出の注目度): 2.3759847811293766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-dimensional linear regression model is the most popular statistical
model for high-dimensional data, but it is quite a challenging task to achieve
a sparse set of regression coefficients. In this paper, we propose a simple
heuristic algorithm to construct sparse high-dimensional linear regression
models, which is adapted from the shortest solution-guided decimation algorithm
and is referred to as ASSD. This algorithm constructs the support of regression
coefficients under the guidance of the least-squares solution of the
recursively decimated linear equations, and it applies an early-stopping
criterion and a second-stage thresholding procedure to refine this support. Our
extensive numerical results demonstrate that ASSD outperforms LASSO, vector
approximate message passing, and two other representative greedy algorithms in
solution accuracy and robustness. ASSD is especially suitable for linear
regression problems with highly correlated measurement matrices encountered in
real-world applications.
- Abstract(参考訳): 高次元線形回帰モデルは高次元データの統計モデルとしては最も一般的なものであるが、偏差係数のスパースセットを達成することは極めて難しい課題である。
本稿では, 最短解導出デシメーションアルゴリズムから適応し, assdと呼ばれる, スパース高次元線形回帰モデルを構築するための単純ヒューリスティックなアルゴリズムを提案する。
このアルゴリズムは再帰的減算線形方程式の最小二乗解の指導の下で回帰係数の支持を構築し、早期停止基準と二段階しきい値法を適用してこの支持を洗練する。
以上の結果から,ASSDはLASSO,ベクトル近似メッセージパッシング,および他の2つの代表的グリージーアルゴリズムよりも解の精度と堅牢性に優れていた。
ASSDは、実世界の応用で遭遇する高度に相関した測定行列を持つ線形回帰問題に特に適している。
関連論文リスト
- Gradient-based bilevel optimization for multi-penalty Ridge regression
through matrix differential calculus [0.46040036610482665]
我々は,l2-正則化を用いた線形回帰問題に対する勾配に基づくアプローチを導入する。
提案手法はLASSO, Ridge, Elastic Netレグレッションよりも優れていることを示す。
勾配の解析は、自動微分と比較して計算時間の観点からより効率的であることが証明されている。
論文 参考訳(メタデータ) (2023-11-23T20:03:51Z) - Stochastic Mirror Descent for Large-Scale Sparse Recovery [13.500750042707407]
本稿では,2次近似の高次元スパースパラメータの統計的推定への応用について論じる。
提案アルゴリズムは, 回帰器分布の弱い仮定の下で, 推定誤差の最適収束を実現する。
論文 参考訳(メタデータ) (2022-10-23T23:23:23Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Robust Regularized Low-Rank Matrix Models for Regression and
Classification [14.698622796774634]
本稿では,ランク制約,ベクトル正規化(疎性など),一般損失関数に基づく行列変分回帰モデルのフレームワークを提案する。
アルゴリズムは収束することが保証されており、アルゴリズムのすべての累積点が$O(sqrtn)$100の順序で推定誤差を持ち、最小値の精度をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2022-05-14T18:03:48Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Piecewise linear regression and classification [0.20305676256390928]
本稿では,線形予測器を用いた多変量回帰と分類問題の解法を提案する。
本論文で記述されたアルゴリズムのpython実装は、http://cse.lab.imtlucca.it/bemporad/parcで利用可能である。
論文 参考訳(メタデータ) (2021-03-10T17:07:57Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - Nested Model Averaging on Solution Path for High-dimensional Linear
Regression [12.173071615025504]
本研究では,高次元線形回帰問題に対するネストモデル平均化法について検討した。
モデル平均化と正規化推定器(例えば、ラッソとSLOPE)を高次元線形回帰の解経路上で組み合わせることを提案する。
米国における一人当たりの暴力犯罪の予測に関する実際のデータ分析は、ラッソで平均化するネストされたモデルの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-05-16T18:09:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。