論文の概要: A novel embedded min-max approach for feature selection in nonlinear
support vector machine classification
- arxiv url: http://arxiv.org/abs/2004.09863v4
- Date: Fri, 15 Jan 2021 15:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:30:48.724210
- Title: A novel embedded min-max approach for feature selection in nonlinear
support vector machine classification
- Title(参考訳): 非線形支持ベクトルマシン分類における特徴選択のための新しい組込みmin-maxアプローチ
- Authors: Asunci\'on Jim\'enez-Cordero, Juan Miguel Morales and Salvador Pineda
- Abstract要約: min-max最適化問題に基づく組込み特徴選択法を提案する。
双対性理論を活用することにより、min-max問題を等価に修正し、それ以上のアドを伴わずに解決する。
提案手法の効率性と有用性は,いくつかのベンチマークデータセットで検証される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, feature selection has become a challenging problem in
several machine learning fields, such as classification problems. Support
Vector Machine (SVM) is a well-known technique applied in classification tasks.
Various methodologies have been proposed in the literature to select the most
relevant features in SVM. Unfortunately, all of them either deal with the
feature selection problem in the linear classification setting or propose
ad-hoc approaches that are difficult to implement in practice. In contrast, we
propose an embedded feature selection method based on a min-max optimization
problem, where a trade-off between model complexity and classification accuracy
is sought. By leveraging duality theory, we equivalently reformulate the
min-max problem and solve it without further ado using off-the-shelf software
for nonlinear optimization. The efficiency and usefulness of our approach are
tested on several benchmark data sets in terms of accuracy, number of selected
features and interpretability.
- Abstract(参考訳): 近年,分類問題など,いくつかの機械学習分野において,特徴選択は難しい問題となっている。
Support Vector Machine (SVM)は、分類タスクでよく使われるテクニックである。
SVMの最も関連性の高い特徴を選択するための様々な手法が文献で提案されている。
残念ながら、これらすべては線形分類設定における特徴選択問題に対処するか、実際には実装が難しいアドホックなアプローチを提案する。
対照的に,モデル複雑性と分類精度のトレードオフを求めるmin-max最適化問題に基づく組込み特徴選択法を提案する。
双対性理論を利用することで、min-max問題を等価に修正し、非線形最適化のためにオフザシェルフソフトウェアを使用することなく解決する。
提案手法の効率性と有用性は,精度,選択された特徴数,解釈可能性の観点から,いくつかのベンチマークデータセットで検証される。
関連論文リスト
- An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Multi-class Support Vector Machine with Maximizing Minimum Margin [67.51047882637688]
Support Vector Machine (SVM) は、パターン認識タスクに広く応用されている機械学習技術である。
本稿では,クラス損失のペア化と最小マージンの最大化を両立するマルチクラスSVMの新たな手法を提案する。
実験により,提案手法の有効性と優位性を示す。
論文 参考訳(メタデータ) (2023-12-11T18:09:55Z) - Robust Twin Parametric Margin Support Vector Machine for Multiclass Classification [0.0]
本稿では,マルチクラス分類の問題に対処するために,Twin Parametric Margin Support Vector Machine (TPMSVM) モデルを提案する。
各サンプルの周囲に有界・ノルム不確実性集合を構築し,決定論的モデルの頑健な対応を導出する。
提案したTPMSVM手法を実世界のデータセット上でテストし,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-09T19:27:24Z) - Bilevel Optimization for Feature Selection in the Data-Driven Newsvendor
Problem [8.281391209717105]
本稿では、意思決定者が過去のデータにアクセス可能な機能ベースのニュースベンダー問題について検討する。
そこで本研究では,スパースモデル,説明可能なモデル,およびアウト・オブ・サンプル性能の改善を目的とした特徴選択について検討する。
本稿では,2レベルプログラムに対する混合整数線形プログラムの修正について述べる。
論文 参考訳(メタデータ) (2022-09-12T08:52:26Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Feature Selection Using Reinforcement Learning [0.0]
特定の関心の予測因子を特徴付けるために使用できる変数や特徴の空間は指数関数的に増大し続けている。
モデルのバイアスを損なうことなく分散を最小化する最も特徴的な特徴を特定することは、マシンラーニングモデルのトレーニングを成功させる上で非常に重要です。
論文 参考訳(メタデータ) (2021-01-23T09:24:37Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Feature Selection for Huge Data via Minipatch Learning [0.0]
安定ミニパッチ選択(STAMPS)と適応STAMPSを提案する。
STAMPSは、データの観測と特徴の両方の小さな(適応性の高い)ランダムなサブセットに基づいて訓練された基本特徴セレクタの選択イベントのアンサンブルを構築するメタアルゴリズムである。
われわれのアプローチは一般的であり、様々な機能選択戦略や機械学習技術に応用できる。
論文 参考訳(メタデータ) (2020-10-16T17:41:08Z) - Robust Multi-class Feature Selection via $l_{2,0}$-Norm Regularization
Minimization [6.41804410246642]
特徴選択は、データマイニングと機械学習において重要な計算処理である。
本稿では,複数クラスの特徴選択における最小二乗問題の解法として,ホモシーハードしきい値(HIHT)に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-08T02:06:06Z) - Saliency-based Weighted Multi-label Linear Discriminant Analysis [101.12909759844946]
複数ラベルの分類課題を解決するために,LDA(Linear Discriminant Analysis)の新たな変種を提案する。
提案手法は,個々の試料の重量を定義する確率モデルに基づく。
サリエンシに基づく重み付きマルチラベル LDA アプローチは,様々なマルチラベル分類問題の性能改善につながることが示されている。
論文 参考訳(メタデータ) (2020-04-08T19:40:53Z) - Extreme Algorithm Selection With Dyadic Feature Representation [78.13985819417974]
我々は,数千の候補アルゴリズムの固定セットを考慮に入れた,極端なアルゴリズム選択(XAS)の設定を提案する。
我々は、XAS設定に対する最先端のAS技術の適用性を評価し、Dyadic特徴表現を利用したアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-29T09:40:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。