論文の概要: Robust support vector model based on bounded asymmetric elastic net loss for binary classification
- arxiv url: http://arxiv.org/abs/2603.06257v1
- Date: Fri, 06 Mar 2026 13:17:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.789297
- Title: Robust support vector model based on bounded asymmetric elastic net loss for binary classification
- Title(参考訳): 二項分類のための有界非対称弾性ネット損失に基づくロバスト支持ベクトルモデル
- Authors: Haiyan Du, Hu Yang,
- Abstract要約: 支持ベクトルマシン(SVM)と組み合わせた新しい有界弾性ネット(L_baen$)損失関数を提案する。
BAEN-SVMの違反許容上限上限(VTUB)を証明することにより、モデルが幾何的に明確に定義されていることを示す。
BAEN-SVM の影響関数は有界であり、その堅牢性の理論的保証を提供する。
- 参考スコア(独自算出の注目度): 4.4568150591571785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel bounded asymmetric elastic net ($L_{baen}$) loss function and combine it with the support vector machine (SVM), resulting in the BAEN-SVM. The $L_{baen}$ is bounded and asymmetric and can degrade to the asymmetric elastic net hinge loss, pinball loss, and asymmetric least squares loss. BAEN-SVM not only effectively handles noise-contaminated data but also addresses the geometric irrationalities in the traditional SVM. By proving the violation tolerance upper bound (VTUB) of BAEN-SVM, we show that the model is geometrically well-defined. Furthermore, we derive that the influence function of BAEN-SVM is bounded, providing a theoretical guarantee of its robustness to noise. The Fisher consistency of the model further ensures its generalization capability. Since the \( L_{\text{baen}} \) loss is non-convex, we designed a clipping dual coordinate descent-based half-quadratic algorithm to solve the non-convex optimization problem efficiently. Experimental results on artificial and benchmark datasets indicate that the proposed method outperforms classical and advanced SVMs, particularly in noisy environments.
- Abstract(参考訳): 本稿では、新しい非対称弾性ネット(L_{baen}$)損失関数を提案し、支持ベクトルマシン(SVM)と組み合わせ、BAEN-SVMを実現する。
L_{baen}$は有界で非対称であり、非対称弾性ネットヒンジ損失、ピンボール損失、非対称最小二乗損失に分解することができる。
BAEN-SVMは、ノイズ汚染データを効果的に処理するだけでなく、従来のSVMの幾何学的不合理性にも対処する。
BAEN-SVMの違反許容上限上限(VTUB)を証明することにより、モデルが幾何的に明確に定義されていることを示す。
さらに、BAEN-SVMの影響関数は有界であり、ノイズに対するロバスト性の理論的保証を提供する。
モデルのフィッシャー整合性は、その一般化能力をさらに確保する。
L_{\text{baen}} \)損失は非凸であるため、非凸最適化問題を効率的に解くために、二重座標降下に基づく半四分法アルゴリズムをクリッピングした。
提案手法は, 従来のSVM, 特に雑音環境において, 従来のSVMよりも優れていた。
関連論文リスト
- Revisiting Weighted Strategy for Non-stationary Parametric Bandits and MDPs [56.246783503873225]
本稿では,非定常パラメトリックバンディットの重み付け戦略を再考する。
本稿では,ウィンドウ/リスタートベースアルゴリズムと同様に,より単純な重みに基づくアルゴリズムを提案する。
我々のフレームワークは、他のパラメトリックバンディットの後悔の限界を改善するのに使える。
論文 参考訳(メタデータ) (2026-01-03T04:50:21Z) - Support Vector Machine Classifier with Rescaled Huberized Pinball Loss [0.0]
サポートベクトルマシン(SVM)は機械学習の分類タスクで広く使われている。
SVMモデルは、リサンプリングや小さなサンプルデータにおける不安定性に対する感受性に悩まされる。
非対称な損失関数を新たに再スケールした性能アプリケーションを開発した。
論文 参考訳(メタデータ) (2025-11-27T03:31:07Z) - Graph-based Clustering Revisited: A Relaxation of Kernel $k$-Means Perspective [73.18641268511318]
本稿では,クラスタリング結果を導出するための正規制約のみを緩和するグラフベースのクラスタリングアルゴリズムを提案する。
二重制約を勾配に変換するために、非負の制約をクラス確率パラメータに変換する。
論文 参考訳(メタデータ) (2025-09-23T09:14:39Z) - Joint Asymmetric Loss for Learning with Noisy Labels [95.14298444251044]
対称的な損失は通常、過度に厳格な制約のために不適合な問題に悩まされる。
APL内では、対称的な損失がうまく拡張され、高度なロバストな損失関数が得られた。
JAL(Joint Asymmetric Loss)と呼ばれる新しいロバスト損失フレームワークを導入する。
論文 参考訳(メタデータ) (2025-07-23T16:57:43Z) - An extended asymmetric sigmoid with Perceptron (SIGTRON) for imbalanced linear classification [0.0]
本稿では、SIGTRONと呼ばれる新しいパラメータ化シグモノイドと、SIGTRON不均衡分類(SIC)モデルと呼ばれる同伴凸モデルを提案する。
従来の$pi$重み付きコスト依存学習モデルとは対照的に、SICモデルは損失関数に外部の$pi$重みを持たない。
提案したSICモデルは,データセットのバリエーションに適応可能であることを示す。
論文 参考訳(メタデータ) (2023-12-26T13:14:17Z) - Kernel Support Vector Machine Classifiers with the $\ell_0$-Norm Hinge
Loss [3.007949058551534]
Support Vector Machine (SVM)は、バイナリ分類問題において最も成功した機械学習技術の1つである。
本論文は, ヒンジ損失を持つベクトル($ell$-KSVM)に集中し, ヒンジ損失と$ell_$normの複合関数である。
合成データセットと実データセットの実験は、$ell_$-KSVMが標準のKSVMと同等の精度を達成可能であることを示すために照らされている。
論文 参考訳(メタデータ) (2023-06-24T14:52:44Z) - Asymmetric Loss Functions for Learning with Noisy Labels [82.50250230688388]
そこで本研究では,様々なノイズに対する雑音ラベルによる学習に頑健な,新しい損失関数,すなわちテクスティタ対称損失関数を提案する。
ベンチマークデータセットの実験結果は、非対称損失関数が最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-06-06T12:52:48Z) - Estimating Average Treatment Effects with Support Vector Machines [77.34726150561087]
サポートベクターマシン(SVM)は、機械学習文献で最も人気のある分類アルゴリズムの1つです。
我々はsvmをカーネルベースの重み付け手順として適用し,治療群と制御群の最大平均差を最小化する。
このトレードオフから生じる因果効果推定のバイアスを特徴づけ、提案されたSVM手順と既存のカーネルバランシング手法を結びつけます。
論文 参考訳(メタデータ) (2021-02-23T20:22:56Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。