論文の概要: Robust Multi-class Feature Selection via $l_{2,0}$-Norm Regularization
Minimization
- arxiv url: http://arxiv.org/abs/2010.03728v3
- Date: Mon, 7 Dec 2020 02:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 12:32:59.025564
- Title: Robust Multi-class Feature Selection via $l_{2,0}$-Norm Regularization
Minimization
- Title(参考訳): l_{2,0}$-norm正規化最小化によるロバストなマルチクラス機能選択
- Authors: Zhenzhen Sun and Yuanlong Yu
- Abstract要約: 特徴選択は、データマイニングと機械学習において重要な計算処理である。
本稿では,複数クラスの特徴選択における最小二乗問題の解法として,ホモシーハードしきい値(HIHT)に基づく新しい手法を提案する。
- 参考スコア(独自算出の注目度): 6.41804410246642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection is an important data pre-processing in data mining and
machine learning, which can reduce feature size without deteriorating model's
performance. Recently, sparse regression based feature selection methods have
received considerable attention due to their good performance. However, because
the $l_{2,0}$-norm regularization term is non-convex, this problem is very hard
to solve. In this paper, unlike most of the other methods which only solve the
approximate problem, a novel method based on homotopy iterative hard threshold
(HIHT) is proposed to solve the $l_{2,0}$-norm regularization least square
problem directly for multi-class feature selection, which can produce exact
row-sparsity solution for the weights matrix. What'more, in order to reduce the
computational time of HIHT, an acceleration version of HIHT (AHIHT) is derived.
Extensive experiments on eight biological datasets show that the proposed
method can achieve higher classification accuracy (ACC) with fewest number of
selected features (No.fea) comparing with the approximate convex counterparts
and state-of-the-art feature selection methods. The robustness of
classification accuracy to the regularization parameter and the number of
selected feature are also exhibited.
- Abstract(参考訳): 特徴の選択は、データマイニングや機械学習において重要なデータ前処理であり、モデルの性能を損なうことなく機能のサイズを削減できる。
近年, スパース回帰に基づく特徴選択法は, 性能の良さから注目されている。
しかし、$l_{2,0}$-norm正規化項は非凸であるため、この問題は非常に解決が難しい。
本稿では, 近似問題のみを解く他の手法とは異なり, 重み行列に対する厳密な行分離解を生成できるマルチクラス特徴量選択のための$l_{2,0}$-ノルム正規化最小二乗問題を直接解くために, ホモトピー反復ハードしきい値(hiht)に基づく新しい手法を提案する。
さらに、HIHTの計算時間を短縮するために、HIHT(AHIHT)の加速度バージョンを導出する。
8つの生物学的データセットに対する広範囲な実験により,提案手法は最も少ない選択された特徴数 (No.fea) で高い分類精度(ACC)を達成できることが示されている。
また、正規化パラメータに対する分類精度の堅牢性と選択された特徴数も示す。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Dual-stage optimizer for systematic overestimation adjustment applied to
multi-objective genetic algorithms for biomarker selection [0.18648070031379424]
特徴選択法を用いたバイオマーカー同定は,特徴数における予測能力とパシモニーのトレードオフを伴う多目的問題として扱うことができる。
提案するDOSA-MOは多目的最適化ラッパーアルゴリズムで,元の推定値,分散度,および解の特徴セットサイズが過大評価を予測する。
論文 参考訳(メタデータ) (2023-12-27T16:13:14Z) - A model-free feature selection technique of feature screening and random
forest based recursive feature elimination [0.0]
質量特徴を持つ超高次元データのモデルフリー特徴選択法を提案する。
提案手法は選択整合性を示し, 弱正則条件下では$L$整合性を示す。
論文 参考訳(メタデータ) (2023-02-15T03:39:16Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Bilevel Optimization for Feature Selection in the Data-Driven Newsvendor
Problem [8.281391209717105]
本稿では、意思決定者が過去のデータにアクセス可能な機能ベースのニュースベンダー問題について検討する。
そこで本研究では,スパースモデル,説明可能なモデル,およびアウト・オブ・サンプル性能の改善を目的とした特徴選択について検討する。
本稿では,2レベルプログラムに対する混合整数線形プログラムの修正について述べる。
論文 参考訳(メタデータ) (2022-09-12T08:52:26Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Joint Adaptive Graph and Structured Sparsity Regularization for
Unsupervised Feature Selection [6.41804410246642]
本稿では,共同適応グラフと構造付き空間正規化unsupervised feature selection (JASFS)法を提案する。
最適な機能のサブセットがグループで選択され、選択された機能の数が自動的に決定される。
8つのベンチマーク実験の結果,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2020-10-09T08:17:04Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - A novel embedded min-max approach for feature selection in nonlinear
support vector machine classification [0.0]
min-max最適化問題に基づく組込み特徴選択法を提案する。
双対性理論を活用することにより、min-max問題を等価に修正し、それ以上のアドを伴わずに解決する。
提案手法の効率性と有用性は,いくつかのベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-04-21T09:40:38Z) - Multi-Objective Matrix Normalization for Fine-grained Visual Recognition [153.49014114484424]
双線形プールは細粒度視覚認識(FGVC)において大きな成功を収める
近年,行列パワー正規化は双線形特徴量において2次情報を安定化させることができることが示されている。
両線形表現を同時に正規化できる効率的な多目的行列正規化法(MOMN)を提案する。
論文 参考訳(メタデータ) (2020-03-30T08:40:35Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。