論文の概要: Pre-processing with Orthogonal Decompositions for High-dimensional
Explanatory Variables
- arxiv url: http://arxiv.org/abs/2106.09071v1
- Date: Wed, 16 Jun 2021 18:22:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:41:43.041278
- Title: Pre-processing with Orthogonal Decompositions for High-dimensional
Explanatory Variables
- Title(参考訳): 高次元説明変数に対する直交分解による前処理
- Authors: Xu Han, Ethan X Fang, Cheng Yong Tang
- Abstract要約: PRODアプローチは高次元のペナル化回帰の性能を向上させるために効果的に構築できる。
我々の理論解析は、LASSOを用いた高次元のペナル化線形回帰に対するそれらの性質と利点を明らかにする。
- 参考スコア(独自算出の注目度): 11.172109387630545
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Strong correlations between explanatory variables are problematic for
high-dimensional regularized regression methods. Due to the violation of the
Irrepresentable Condition, the popular LASSO method may suffer from false
inclusions of inactive variables. In this paper, we propose pre-processing with
orthogonal decompositions (PROD) for the explanatory variables in
high-dimensional regressions. The PROD procedure is constructed based upon a
generic orthogonal decomposition of the design matrix. We demonstrate by two
concrete cases that the PROD approach can be effectively constructed for
improving the performance of high-dimensional penalized regression. Our
theoretical analysis reveals their properties and benefits for high-dimensional
penalized linear regression with LASSO. Extensive numerical studies with
simulations and data analysis show the promising performance of the PROD.
- Abstract(参考訳): 説明変数間の強い相関は高次元正規化回帰法では問題となる。
不表示条件に違反しているため、一般的なLASSO法は不活性変数の偽包摂に悩まされる可能性がある。
本稿では,高次元回帰における説明変数に対する直交分解(PROD)を用いた前処理を提案する。
PRODプロシージャは設計行列の直交分解に基づいて構成される。
本研究では,高次元ペナライズドレグレッションの性能向上のために,prodアプローチを効果的に構築できることを示す。
我々の理論解析は、LASSOを用いた高次元のペナル化線形回帰に対するそれらの性質と利点を明らかにする。
シミュレーションとデータ解析による広範囲な数値研究は、prodの有望な性能を示している。
関連論文リスト
- Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Probabilistic Reduced-Dimensional Vector Autoregressive Modeling with
Oblique Projections [0.7614628596146602]
雑音データから低次元ダイナミクスを抽出する低次元ベクトル自己回帰モデルを提案する。
最適斜め分解は、予測誤差の共分散に関する最良の予測可能性のために導出される。
合成ロレンツシステムとイーストマンケミカルの工業プロセスのデータセットを用いて,提案手法の優れた性能と効率を実証した。
論文 参考訳(メタデータ) (2024-01-14T05:38:10Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - High-dimensional analysis of double descent for linear regression with
random projections [0.0]
ランダムな投影数が異なる線形回帰問題を考察し、固定された予測問題に対する二重降下曲線を確実に示す。
まず、リッジ回帰推定器を考察し、非パラメトリック統計学の古典的概念を用いて先行結果を再解釈する。
次に、最小ノルム最小二乗の一般化性能(バイアスと分散の観点から)の同値をランダムな射影に適合させ、二重降下現象の単純な表現を与える。
論文 参考訳(メタデータ) (2023-03-02T15:58:09Z) - Score-based Causal Representation Learning with Interventions [54.735484409244386]
本稿では,潜在因果変数を間接的に観察する際の因果表現学習問題について検討する。
目的は、 (i) 未知の線形変換(スケーリングまで)を回復し、 (ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定することである。
論文 参考訳(メタデータ) (2023-01-19T18:39:48Z) - An adaptive shortest-solution guided decimation approach to sparse
high-dimensional linear regression [2.3759847811293766]
ASSDは最短解誘導アルゴリズムから適応され、ASSDと呼ばれる。
ASSDは、実世界の応用で遭遇する高度に相関した測定行列を持つ線形回帰問題に特に適している。
論文 参考訳(メタデータ) (2022-11-28T04:29:57Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Robust Regularized Low-Rank Matrix Models for Regression and
Classification [14.698622796774634]
本稿では,ランク制約,ベクトル正規化(疎性など),一般損失関数に基づく行列変分回帰モデルのフレームワークを提案する。
アルゴリズムは収束することが保証されており、アルゴリズムのすべての累積点が$O(sqrtn)$100の順序で推定誤差を持ち、最小値の精度をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2022-05-14T18:03:48Z) - A Differential Evolution-Enhanced Latent Factor Analysis Model for
High-dimensional and Sparse Data [11.164847043777703]
本稿では,PLFAモデルにより最適化された潜在因子を改良するための逐次群差分進化(SGDE)アルゴリズムを提案する。
4つのHiDS行列の実験で示されたように、SGDE-PLFAモデルは最先端のモデルよりも優れている。
論文 参考訳(メタデータ) (2022-04-02T13:41:19Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。