論文の概要: Fast OSCAR and OWL Regression via Safe Screening Rules
- arxiv url: http://arxiv.org/abs/2006.16433v2
- Date: Tue, 19 Oct 2021 07:05:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 14:21:26.756085
- Title: Fast OSCAR and OWL Regression via Safe Screening Rules
- Title(参考訳): 安全なスクリーニングルールによる高速OSCARとOWL回帰
- Authors: Runxue Bao, Bin Gu, Heng Huang
- Abstract要約: 順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
- 参考スコア(独自算出の注目度): 97.28167655721766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ordered Weighted $L_{1}$ (OWL) regularized regression is a new regression
analysis for high-dimensional sparse learning. Proximal gradient methods are
used as standard approaches to solve OWL regression. However, it is still a
burning issue to solve OWL regression due to considerable computational cost
and memory usage when the feature or sample size is large. In this paper, we
propose the first safe screening rule for OWL regression by exploring the order
of the primal solution with the unknown order structure via an iterative
strategy, which overcomes the difficulties of tackling the non-separable
regularizer. It effectively avoids the updates of the parameters whose
coefficients must be zero during the learning process. More importantly, the
proposed screening rule can be easily applied to standard and stochastic
proximal gradient methods. Moreover, we prove that the algorithms with our
screening rule are guaranteed to have identical results with the original
algorithms. Experimental results on a variety of datasets show that our
screening rule leads to a significant computational gain without any loss of
accuracy, compared to existing competitive algorithms.
- Abstract(参考訳): 順序重み付き$l_{1}$ (owl) 正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
しかし,特徴量やサンプルサイズが大きい場合,計算コストやメモリ使用量が大きいため,フクロウ回帰の解決はいまだに燃え尽きる問題である。
本稿では,非分離正則化処理の難しさを克服する反復戦略により,未知の順序構造を持つ原始解の順序を探索し,OWL回帰に対する最初の安全なスクリーニングルールを提案する。
学習プロセス中に係数がゼロでなければならないパラメータの更新を効果的に回避する。
さらに重要なことに、提案されたスクリーニング規則は、標準および確率的近位勾配法に容易に適用できる。
さらに, スクリーニングルールのアルゴリズムは, 元のアルゴリズムと同一の結果が得られることが保証されている。
様々なデータセットに対する実験結果から、既存の競合アルゴリズムと比較して、スクリーニングルールが精度を損なうことなく大きな計算ゲインをもたらすことが示された。
関連論文リスト
- A randomized algorithm to solve reduced rank operator regression [27.513149895229837]
本稿では,無限次元入力空間と出力空間を含むベクトル値回帰問題に対処するアルゴリズムを提案し,解析する。
このアルゴリズムは低ランクベクトル値関数を最適に学習する手法である低ランク回帰のランダム適応である。
論文 参考訳(メタデータ) (2023-12-28T20:29:59Z) - Iteratively Refined Behavior Regularization for Offline Reinforcement
Learning [57.10922880400715]
本稿では,保守的政策反復に基づく行動規則化を大幅に強化する新しいアルゴリズムを提案する。
行動規則化に使用される基準ポリシーを反復的に洗練することにより、保守的な政策更新は徐々に改善される。
D4RLベンチマークの実験結果から,本手法は従来のタスクのベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-06-09T07:46:24Z) - Scalable Gaussian-process regression and variable selection using
Vecchia approximations [3.4163060063961255]
ヴェッキアをベースとしたミニバッチサブサンプリングは、偏りのない勾配推定器を提供する。
偏りのない勾配推定器を提供するVecchiaベースのミニバッチサブサンプリングを提案する。
論文 参考訳(メタデータ) (2022-02-25T21:22:38Z) - The Benefits of Implicit Regularization from SGD in Least Squares
Problems [116.85246178212616]
勾配降下(SGD)はアルゴリズム正則化効果が強い。
我々は、(正規化されていない)平均SGDで得られる暗黙の正則化とリッジ回帰の明示的な正則化の比較を行う。
論文 参考訳(メタデータ) (2021-08-10T09:56:47Z) - Robust Regression Revisited: Acceleration and Improved Estimation Rates [25.54653340884806]
強い汚染モデルの下で, 統計的回帰問題に対する高速アルゴリズムについて検討する。
目的は、逆向きに破損したサンプルを与えられた一般化線形モデル(GLM)を概ね最適化することである。
実行時や推定保証が改善された頑健な回帰問題に対して,ほぼ直線的な時間アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-22T17:21:56Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - A spectral algorithm for robust regression with subgaussian rates [0.0]
本研究では, 試料の分布に強い仮定がない場合の線形回帰に対する2次時間に対する新しい線形アルゴリズムについて検討する。
目的は、データが有限モーメントしか持たなくても最適な準ガウス誤差を達成できる手順を設計することである。
論文 参考訳(メタデータ) (2020-07-12T19:33:50Z) - Provable Training of a ReLU Gate with an Iterative Non-Gradient
Algorithm [0.7614628596146599]
我々は,未調査体制下での1つのReLUゲートのトレーニングについて,証明可能な保証を示す。
我々は,真のラベルに対する(オンライン)データポゾン攻撃の下で,真のラベル生成パラメータを近似的に復元することを示す。
我々の保証は最悪の場合ほぼ最適であることが示され、真の重量回復の精度は攻撃の確率と大きさの増大とともに優雅に低下する。
論文 参考訳(メタデータ) (2020-05-08T17:59:23Z) - Beyond UCB: Optimal and Efficient Contextual Bandits with Regression
Oracles [112.89548995091182]
我々は、文脈的帯域幅からオンライン回帰への、初めての普遍的で最適な削減を提供する。
我々のアルゴリズムは、実現可能性以上の分布仮定は必要とせず、コンテキストが逆選択された場合でも機能する。
論文 参考訳(メタデータ) (2020-02-12T11:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。