論文の概要: Robust Classification via Support Vector Machines
- arxiv url: http://arxiv.org/abs/2104.13458v1
- Date: Tue, 27 Apr 2021 20:20:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 21:01:47.995644
- Title: Robust Classification via Support Vector Machines
- Title(参考訳): サポートベクトルマシンによるロバスト分類
- Authors: Vali Asimit, Ioannis Kyriakou, Simone Santoni, Salvatore Scognamiglio
and Rui Zhu
- Abstract要約: データ不確実性下での2つの堅牢な分類器を提案する。
1つ目はSP-SVM(Single Perturbation SVM)と呼ばれ、データの1つの特徴に対して制御された摂動を許容することで構成的な方法を提供する。
第2の方法は Extreme Empirical Loss SVM (EEL-SVM) と呼ばれ、新しい経験的損失推定、すなわち Extreme Empirical Loss (EEL) に基づいている。
- 参考スコア(独自算出の注目度): 1.7520660701924717
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The loss function choice for any Support Vector Machine classifier has raised
great interest in the literature due to the lack of robustness of the Hinge
loss, which is the standard loss choice. In this paper, we plan to robustify
the binary classifier by maintaining the overall advantages of the Hinge loss,
rather than modifying this standard choice. We propose two robust classifiers
under data uncertainty. The first is called Single Perturbation SVM (SP-SVM)
and provides a constructive method by allowing a controlled perturbation to one
feature of the data. The second method is called Extreme Empirical Loss SVM
(EEL-SVM) and is based on a new empirical loss estimate, namely, the Extreme
Empirical Loss (EEL), that puts more emphasis on extreme violations of the
classification hyper-plane, rather than taking the usual sample average with
equal importance for all hyper-plane violations. Extensive numerical
investigation reveals the advantages of the two robust classifiers on simulated
data and well-known real datasets.
- Abstract(参考訳): サポートベクトルマシン分類器の損失関数選択は、標準的な損失選択であるヒンジ損失の堅牢性の欠如により、文献に多大な関心を寄せている。
本稿では,ヒンジ損失の全体的な利点を保ちつつ,この標準選択を変更するのではなく,バイナリ分類器の強固化を図りたい。
データ不確実性の下で2つの頑健な分類器を提案する。
1つ目はSP-SVM(Single Perturbation SVM)と呼ばれ、データの1つの特徴に対して制御された摂動を許容することで構成的な方法を提供する。
第2の方法は Extreme Empirical Loss SVM (EEL-SVM) と呼ばれ、新しい経験的損失推定値、すなわち Extreme Empirical Loss (EEL) に基づいている。
大規模な数値調査により、シミュレーションデータとよく知られた実データに対する2つの頑健な分類器の利点が明らかになった。
関連論文リスト
- Intuitionistic Fuzzy Universum Twin Support Vector Machine for Imbalanced Data [0.0]
機械学習手法の大きな問題の1つは、不均衡なデータセットを分類することである。
不均衡データ(IFUTSVM-ID)のための直観的ファジィユニバームツインサポートベクトルマシンを提案する。
雑音や外周の影響を軽減するため,直観主義的なファジィ・メンバシップ・スキームを用いる。
論文 参考訳(メタデータ) (2024-10-27T04:25:42Z) - Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - Projection based fuzzy least squares twin support vector machine for
class imbalance problems [0.9668407688201361]
本稿では,不均衡なクラスとノイズの多いデータセットを扱うファジィに基づく新しい手法を提案する。
提案アルゴリズムは,複数のベンチマークおよび合成データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-09-27T14:28:48Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Weighted Least Squares Twin Support Vector Machine with Fuzzy Rough Set
Theory for Imbalanced Data Classification [0.483420384410068]
サポートベクトルマシン(SVM)は、分類問題を解決するために開発された強力な教師付き学習ツールである。
重み付き最小二乗支援ベクトルマシンFRLSTSVMにおけるファジィ粗集合理論を不均衡データの分類に効率的に利用する手法を提案する。
論文 参考訳(メタデータ) (2021-05-03T22:33:39Z) - Robustifying Binary Classification to Adversarial Perturbation [45.347651499585055]
本稿では,対向摂動を伴う二分分類の問題について考察する。
データを操作する際の敵の力を考慮に入れたマックスマージン分類器に一般化を導入する。
損失関数に関するいくつかの軽微な仮定の下では、勾配降下がその方向のRM分類器に収束することを理論的に示す。
論文 参考訳(メタデータ) (2020-10-29T07:20:37Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。