論文の概要: Look-Ahead Screening Rules for the Lasso
- arxiv url: http://arxiv.org/abs/2105.05648v1
- Date: Wed, 12 May 2021 13:27:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:29:19.081009
- Title: Look-Ahead Screening Rules for the Lasso
- Title(参考訳): LassoのLook-Aheadスクリーニングルール
- Authors: Johan Larsson
- Abstract要約: ラッソは回帰問題の解ベクトル(係数)における縮退とスパーシリティを誘導する一般的な方法である。
我々は,新しいスクリーニング戦略であるルック・ア・ヘッド・スクリーニングを提案する。
提案手法は安全なスクリーニングルールを用いて,与えられた予測器がモデルに入力できない範囲のペナルティ値を求め,その経路の残りに沿って予測器をスクリーニングする。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The lasso is a popular method to induce shrinkage and sparsity in the
solution vector (coefficients) of regression problems, particularly when there
are many predictors relative to the number of observations. Solving the lasso
in this high-dimensional setting can, however, be computationally demanding.
Fortunately, this demand can be alleviated via the use of screening rules that
discard predictors prior to fitting the model, leading to a reduced problem to
be solved. In this paper, we present a new screening strategy: look-ahead
screening. Our method uses safe screening rules to find a range of penalty
values for which a given predictor cannot enter the model, thereby screening
predictors along the remainder of the path. In experiments we show that these
look-ahead screening rules improve the performance of existing screening
strategies.
- Abstract(参考訳): ラッソは、レグレッション問題の解ベクトル(係数)において、特に観測数に対して多くの予測子が存在する場合の縮小とスパーシリティを誘導する一般的な方法である。
しかし、この高次元の設定でラッソを解くことは計算的に要求される。
幸いなことに、この需要はモデルに適合する前に予測器を破棄するスクリーニングルールを使用することで緩和され、解決すべき問題が低減される。
本稿では,新しいスクリーニング戦略であるルック・ア・ヘッド・スクリーニングを提案する。
提案手法は安全なスクリーニングルールを用いて,与えられた予測器がモデルに入力できない範囲のペナルティ値を求め,その経路の残りに沿って予測器をスクリーニングする。
実験では,これらのルックアヘッドスクリーニングルールにより,既存のスクリーニング戦略の性能が向上することを示す。
関連論文リスト
- Conformal Generative Modeling with Improved Sample Efficiency through Sequential Greedy Filtering [55.15192437680943]
生成モデルは出力に対する厳密な統計的保証を欠いている。
厳密な統計的保証を満たす予測セットを生成する逐次共形予測法を提案する。
このことは、高い確率で予測セットが少なくとも1つの許容可能な(または有効な)例を含むことを保証している。
論文 参考訳(メタデータ) (2024-10-02T15:26:52Z) - Vector-Valued Least-Squares Regression under Output Regularity
Assumptions [73.99064151691597]
最小二乗回帰問題を無限次元出力で解くために,還元ランク法を提案し,解析する。
提案手法の学習バウンダリを導出し、フルランク手法と比較して統計的性能の設定を改善する研究を行う。
論文 参考訳(メタデータ) (2022-11-16T15:07:00Z) - Bagging in overparameterized learning: Risk characterization and risk
monotonization [2.6534407766508177]
本研究では, 比例法の下で, 適応型予測器の変種予測リスクについて検討した。
具体的には,タグ付き予測器の2乗誤差損失下での予測リスクを解析するための一般的な手法を提案する。
論文 参考訳(メタデータ) (2022-10-20T17:45:58Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - A Dimensionality Reduction Method for Finding Least Favorable Priors
with a Focus on Bregman Divergence [108.28566246421742]
そこで本研究では,次元に明示的な有界な有限次元設定に最適化を移動させることができる次元削減法を開発した。
この問題を進展させるため、比較的大きな損失関数、すなわちブレグマンの発散によって引き起こされるベイズ的リスクに限定する。
論文 参考訳(メタデータ) (2022-02-23T16:22:28Z) - The Hessian Screening Rule [5.076419064097734]
ヘッセンスクリーニング規則はモデルからの2次情報を使用してより正確なスクリーニングを提供する。
このルールは, 相関性の高いシミュレーション実験において, 他の選択肢よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-27T07:55:29Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Analysis and Design of Thompson Sampling for Stochastic Partial
Monitoring [91.22679787578438]
部分モニタリングのためのトンプソンサンプリングに基づく新しいアルゴリズムを提案する。
局所可観測性を持つ問題の線形化変種に対して,新たなアルゴリズムが対数問題依存の擬似回帰$mathrmO(log T)$を達成することを証明した。
論文 参考訳(メタデータ) (2020-06-17T05:48:33Z) - The Strong Screening Rule for SLOPE [5.156484100374058]
我々は,SLOPEのサブディファレンシャルを検証して,SLOPEのスクリーニングルールを開発し,このルールがラッソの強い規則の一般化であることを示す。
我々の数値実験は、このルールが実際にうまく機能していることを示し、$p gg n$ ドメインのデータに対して桁違いに改善されることを示している。
論文 参考訳(メタデータ) (2020-05-07T20:14:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。