論文の概要: On Regularized Sparse Logistic Regression
- arxiv url: http://arxiv.org/abs/2309.05925v1
- Date: Tue, 12 Sep 2023 02:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:41:50.284495
- Title: On Regularized Sparse Logistic Regression
- Title(参考訳): 正規化スパースロジスティック回帰について
- Authors: Mengyuan Zhang and Kai Liu
- Abstract要約: 計算スパースロジスティック回帰は、高次元データに対する分類と特徴選択を同時に解くことを目的としている。
実世界のデータセットを用いたバイナリ分類に関する実証実験により,提案したアルゴリズムが実証された。
- 参考スコア(独自算出の注目度): 5.174012156390378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse logistic regression aims to perform classification and feature
selection simultaneously for high-dimensional data. Although many studies have
been done to solve $\ell_1$-regularized logistic regression, there is no
equivalently abundant literature about solving sparse logistic regression
associated with nonconvex penalties. In this paper, we propose to solve
$\ell_1$-regularized sparse logistic regression and some nonconvex
penalties-regularized sparse logistic regression, when the nonconvex penalties
satisfy some prerequisites, with similar optimization frameworks. In the
proposed optimization frameworks, we utilize different line search criteria to
guarantee good convergence performance for different regularization terms.
Empirical experiments on binary classification tasks with real-world datasets
demonstrate our proposed algorithms are capable of performing classification
and feature selection effectively with a lower computational cost.
- Abstract(参考訳): スパースロジスティック回帰は、高次元データに対して、分類と特徴選択を同時に行うことを目的としている。
$\ell_1$-正規化ロジスティック回帰を解くために多くの研究がなされているが、非凸ペナルティに関連するスパースロジスティック回帰を解くという、同等に豊富な文献は存在しない。
本稿では,非凸ペナルティがいくつかの前提条件を満たす場合の,$\ell_1$-regularized sparse logistic regressionと,非凸ペナルティ-regularized sparse logistic regressionを類似の最適化フレームワークで解くことを提案する。
提案する最適化フレームワークでは,正規化条件の整合性を保証するために,異なる線探索基準を利用する。
実世界のデータセットを用いた二項分類タスクの実証実験により,提案アルゴリズムはより少ない計算コストで効果的に分類と特徴選択を行うことができることを示した。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - A Novel Approach in Solving Stochastic Generalized Linear Regression via
Nonconvex Programming [1.6874375111244329]
本稿では,一般化線形回帰モデルについて,確率制約問題として考察する。
提案アルゴリズムの結果は,通常のロジスティック回帰モデルよりも1~2%以上よい結果を得た。
論文 参考訳(メタデータ) (2024-01-16T16:45:51Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Retire: Robust Expectile Regression in High Dimensions [3.9391041278203978]
ペナル化量子化法と期待回帰法は、高次元データの異方性検出に有用な手段を提供する。
我々は,頑健な期待回帰(退職)を提案し,研究する。
提案手法は半平滑なニュートン座標降下アルゴリズムにより効率よく解けることを示す。
論文 参考訳(メタデータ) (2022-12-11T18:03:12Z) - Streaming Sparse Linear Regression [1.8707139489039097]
本稿では,データポイントが逐次到着したときのストリーミングデータを解析する新しいオンライン疎線形回帰フレームワークを提案する。
提案手法はメモリ効率が高く,厳密な制約付き凸性仮定を必要とする。
論文 参考訳(メタデータ) (2022-11-11T07:31:55Z) - Safe Screening for Logistic Regression with $\ell_0$-$\ell_2$
Regularization [0.360692933501681]
問題を解く前にロジスティック回帰から機能を安全に除去するスクリーニングルールを提案する。
高い割合の機能は有効かつ安全に除去できるため、計算の大幅なスピードアップにつながる。
論文 参考訳(メタデータ) (2022-02-01T15:25:54Z) - Iterative Feature Matching: Toward Provable Domain Generalization with
Logarithmic Environments [55.24895403089543]
ドメインの一般化は、限られた数のトレーニング環境からのデータで、目に見えないテスト環境でうまく機能することを目的としています。
我々は,O(logd_s)$環境のみを見た後に一般化する予測器を高確率で生成することを保証する反復的特徴マッチングに基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-18T04:39:19Z) - An efficient projection neural network for $\ell_1$-regularized logistic
regression [10.517079029721257]
本稿では, $ell_$-regularized logistics regression のための単純な投影ニューラルネットワークを提案する。
提案したニューラルネットワークは、余分な補助変数や滑らかな近似を必要としない。
また、リアプノフ理論を用いて、提案したニューラルネットワークの収束について検討し、任意の初期値を持つ問題の解に収束することを示す。
論文 参考訳(メタデータ) (2021-05-12T06:13:44Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Beyond UCB: Optimal and Efficient Contextual Bandits with Regression
Oracles [112.89548995091182]
我々は、文脈的帯域幅からオンライン回帰への、初めての普遍的で最適な削減を提供する。
我々のアルゴリズムは、実現可能性以上の分布仮定は必要とせず、コンテキストが逆選択された場合でも機能する。
論文 参考訳(メタデータ) (2020-02-12T11:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。