論文の概要: Multi-Class Imbalanced Learning with Support Vector Machines via Differential Evolution
- arxiv url: http://arxiv.org/abs/2502.14597v1
- Date: Thu, 20 Feb 2025 14:30:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:30:01.290498
- Title: Multi-Class Imbalanced Learning with Support Vector Machines via Differential Evolution
- Title(参考訳): 差分進化による支援ベクトルマシンを用いたマルチクラス不均衡学習
- Authors: Zhong-Liang Zhang, Jie Yang, Jian-Ming Ru, Xiao-Xi Zhao, Xing-Gang Luo,
- Abstract要約: サポートベクトルマシン(SVM)は、分類タスクを処理する強力な機械学習アルゴリズムである。
本稿では, 微分進化(i-SVM-DE)法によるSVMの改良手法を提案する。
- 参考スコア(独自算出の注目度): 4.877822002065298
- License:
- Abstract: Support vector machine (SVM) is a powerful machine learning algorithm to handle classification tasks. However, the classical SVM is developed for binary problems with the assumption of balanced datasets. Obviously, the multi-class imbalanced classification problems are more complex. In this paper, we propose an improved SVM via Differential Evolution (i-SVM-DE) method to deal with it. An improved SVM (i-SVM) model is proposed to handle the data imbalance by combining cost sensitive technique and separation margin modification in the constraints, which formalize a parameter optimization problem. By using one-versus-one (OVO) scheme, a multi-class problem is decomposed into a number of binary subproblems. A large optimization problem is formalized through concatenating the parameters in the binary subproblems. To find the optimal model effectively and learn the support vectors for each class simultaneously, an improved differential evolution (DE) algorithm is applied to solve this large optimization problem. Instead of the validation set, we propose the fitness functions to evaluate the learned model and obtain the optimal parameters in the search process of DE. A series of experiments are carried out to verify the benefits of our proposed method. The results indicate that i-SVM-DE is statistically superior by comparing with the other baseline methods.
- Abstract(参考訳): サポートベクトルマシン(SVM)は、分類タスクを処理する強力な機械学習アルゴリズムである。
しかし、古典的なSVMは、バランスの取れたデータセットを仮定してバイナリ問題のために開発されている。
明らかに、多クラス不均衡な分類問題はより複雑である。
本稿では, 微分進化(i-SVM-DE)法によるSVMの改良手法を提案する。
パラメータ最適化問題を定式化したSVM(i-SVM)モデルを提案する。
1-versus-one (OVO) スキームを用いることで、多重クラス問題は複数のバイナリサブプロブレムに分解される。
大きな最適化問題は、バイナリサブプロブレムのパラメータを連結することで定式化される。
最適モデルを効果的に発見し,各クラスに対するサポートベクトルを同時に学習するために,改良された微分進化(DE)アルゴリズムを適用し,この大きな最適化問題を解く。
検証セットの代わりに、学習したモデルを評価し、DEの探索プロセスにおいて最適なパラメータを得るための適合関数を提案する。
提案手法の利点を検証するために, 一連の実験を行った。
その結果,i-SVM-DEは他のベースライン法と比較して統計的に優れていることがわかった。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Numerical Optimizations for Weighted Low-rank Estimation on Language
Model [73.12941276331316]
Singular value decomposition (SVD) は、より小さい行列でターゲット行列を近似する最も一般的な圧縮手法の1つである。
標準SVDは行列内のパラメータを同じ重要性で扱うが、これは単純だが非現実的な仮定である。
本手法は,ニューラルベース言語モデルにおいて,現在のSOTA法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-02T00:58:02Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Estimating Average Treatment Effects with Support Vector Machines [77.34726150561087]
サポートベクターマシン(SVM)は、機械学習文献で最も人気のある分類アルゴリズムの1つです。
我々はsvmをカーネルベースの重み付け手順として適用し,治療群と制御群の最大平均差を最小化する。
このトレードオフから生じる因果効果推定のバイアスを特徴づけ、提案されたSVM手順と既存のカーネルバランシング手法を結びつけます。
論文 参考訳(メタデータ) (2021-02-23T20:22:56Z) - A fast learning algorithm for One-Class Slab Support Vector Machines [1.1613446814180841]
本稿では,SMO (Sequential Minimal Optimization) を用いた一級スラブSVMの高速トレーニング手法を提案する。
その結果、このトレーニング手法は、他の準計画法(QP)の解法よりも、大規模なトレーニングデータに対してより優れたスケールが可能であることが示唆された。
論文 参考訳(メタデータ) (2020-11-06T09:16:39Z) - AML-SVM: Adaptive Multilevel Learning with Support Vector Machines [0.0]
本稿では非線形SVMのための適応型多段階学習フレームワークを提案する。
改良プロセス全体の分類品質を改善し、マルチスレッド並列処理を活用して性能を向上する。
論文 参考訳(メタデータ) (2020-11-05T00:17:02Z) - Frank-Wolfe algorithm for learning SVM-type multi-category classifiers [0.7646713951724012]
マルチカテゴリサポートベクターマシン(MC-SVM)は最も人気のある機械学習アルゴリズムの一つである。
本研究では,MC-SVMの変種の多くに適用可能な新しい最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-08-20T11:19:07Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - A novel embedded min-max approach for feature selection in nonlinear
support vector machine classification [0.0]
min-max最適化問題に基づく組込み特徴選択法を提案する。
双対性理論を活用することにより、min-max問題を等価に修正し、それ以上のアドを伴わずに解決する。
提案手法の効率性と有用性は,いくつかのベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-04-21T09:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。