論文の概要: Safe Screening for Logistic Regression with $\ell_0$-$\ell_2$
Regularization
- arxiv url: http://arxiv.org/abs/2202.00467v1
- Date: Tue, 1 Feb 2022 15:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 14:50:53.196252
- Title: Safe Screening for Logistic Regression with $\ell_0$-$\ell_2$
Regularization
- Title(参考訳): $\ell_0$-$\ell_2$正規化によるロジスティック回帰の安全なスクリーニング
- Authors: Anna Deza, Alper Atamturk
- Abstract要約: 問題を解く前にロジスティック回帰から機能を安全に除去するスクリーニングルールを提案する。
高い割合の機能は有効かつ安全に除去できるため、計算の大幅なスピードアップにつながる。
- 参考スコア(独自算出の注目度): 0.360692933501681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In logistic regression, it is often desirable to utilize regularization to
promote sparse solutions, particularly for problems with a large number of
features compared to available labels. In this paper, we present screening
rules that safely remove features from logistic regression with $\ell_0-\ell_2$
regularization before solving the problem. The proposed safe screening rules
are based on lower bounds from the Fenchel dual of strong conic relaxations of
the logistic regression problem. Numerical experiments with real and synthetic
data suggest that a high percentage of the features can be effectively and
safely removed apriori, leading to substantial speed-up in the computations.
- Abstract(参考訳): ロジスティック回帰では、特に利用可能なラベルに比べて多数の機能を持つ問題に対して、スパースソリューションを促進するために正規化を利用することが望ましいことが多い。
本稿では,ロジスティック回帰から問題解決前に$\ell_0-\ell_2$正規化を安全に除去するスクリーニングルールを提案する。
提案した安全なスクリーニングルールは、ロジスティック回帰問題の強い円錐緩和のフェンシェル双対による下界に基づいている。
実データと合成データを用いた数値実験により、高いパーセンテージの機能が効果的かつ安全に apriori を除去できることが示され、計算の高速化に繋がる。
関連論文リスト
- Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Prevalidated ridge regression is a highly-efficient drop-in replacement
for logistic regression for high-dimensional data [7.532661545437305]
分類誤差やログロスの点から,ロジスティック回帰と一致する有意なリッジ回帰モデルを提案する。
モデルの係数をスケールし、予測値のセットのログロスを最小限に抑える。
これは、隆起回帰モデルに適合する過程で既に計算された量を利用して、名目追加の計算コストでスケーリングパラメータを見つける。
論文 参考訳(メタデータ) (2024-01-28T09:38:14Z) - A Novel Approach in Solving Stochastic Generalized Linear Regression via
Nonconvex Programming [1.6874375111244329]
本稿では,一般化線形回帰モデルについて,確率制約問題として考察する。
提案アルゴリズムの結果は,通常のロジスティック回帰モデルよりも1~2%以上よい結果を得た。
論文 参考訳(メタデータ) (2024-01-16T16:45:51Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - On Regularized Sparse Logistic Regression [5.174012156390378]
本稿では,$ell$regularized logistic regressionを解くための統一フレームワークを提案する。
我々の実験は、我々の実験を低コストで効果的に行うことができる。
論文 参考訳(メタデータ) (2023-09-12T02:52:40Z) - Optimal Online Generalized Linear Regression with Stochastic Noise and
Its Application to Heteroscedastic Bandits [88.6139446295537]
一般化線形モデルの設定におけるオンライン一般化線形回帰の問題について検討する。
ラベルノイズに対処するため、古典的追従正規化リーダ(FTRL)アルゴリズムを鋭く解析する。
本稿では,FTRLに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T08:25:26Z) - An efficient projection neural network for $\ell_1$-regularized logistic
regression [10.517079029721257]
本稿では, $ell_$-regularized logistics regression のための単純な投影ニューラルネットワークを提案する。
提案したニューラルネットワークは、余分な補助変数や滑らかな近似を必要としない。
また、リアプノフ理論を用いて、提案したニューラルネットワークの収束について検討し、任意の初期値を持つ問題の解に収束することを示す。
論文 参考訳(メタデータ) (2021-05-12T06:13:44Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Safe Screening Rules for $\ell_0$-Regression [3.04585143845864]
スクリーニングルールは、凸緩和溶液から線形時間で計算することができる。
実データと合成データの実験は、平均して変数の76%が最適な値に固定可能であることを示している。
論文 参考訳(メタデータ) (2020-04-19T06:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。