論文の概要: Robust support vector machines via conic optimization
- arxiv url: http://arxiv.org/abs/2402.01797v1
- Date: Fri, 2 Feb 2024 05:42:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 01:50:58.305894
- Title: Robust support vector machines via conic optimization
- Title(参考訳): conic最適化によるロバストサポートベクターマシン
- Authors: Valentina Cepeda, Andr\'es G\'omez, Shaoning Han
- Abstract要約: 本研究では,不確実性に頑健な凸計算機の問題点を考察する。
提案した推定器は, 降圧器の存在下では, 降圧器が無く, より良くなることにより, SVM と競合することを示す。
- 参考スコア(独自算出の注目度): 0.8594140167290099
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We consider the problem of learning support vector machines robust to
uncertainty. It has been established in the literature that typical loss
functions, including the hinge loss, are sensible to data perturbations and
outliers, thus performing poorly in the setting considered. In contrast, using
the 0-1 loss or a suitable non-convex approximation results in robust
estimators, at the expense of large computational costs. In this paper we use
mixed-integer optimization techniques to derive a new loss function that better
approximates the 0-1 loss compared with existing alternatives, while preserving
the convexity of the learning problem. In our computational results, we show
that the proposed estimator is competitive with the standard SVMs with the
hinge loss in outlier-free regimes and better in the presence of outliers.
- Abstract(参考訳): 不確実性に頑健な学習支援ベクターマシンの問題を考える。
ヒンジ損失を含む典型的な損失関数は、データ摂動や外乱に敏感であり、考慮された設定では不十分であることが文献で確認されている。
対照的に、0-1損失または適切な非凸近似を用いることで、大きな計算コストを犠牲にして、ロバストな推定が可能となる。
本稿では,学習問題の凸性を保ちながら,既存手法と比較して0-1損失を近似した新たな損失関数を導出するために混合整数最適化手法を用いる。
計算結果から,提案した推定器は標準SVMと競合し,外乱のない状態下でのヒンジ損失と外乱の存在下での精度が向上することを示した。
関連論文リスト
- LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Asymptotic Characterisation of Robust Empirical Risk Minimisation
Performance in the Presence of Outliers [18.455890316339595]
我々は,次元$d$とデータ点数$n$が固定比$alpha=n/d$で分岐した場合,高次元の線形回帰について検討し,出力率を含むデータモデルについて検討する。
我々は、$ell$-regularized $ell$, $ell_$, Huber損失を用いて、経験的リスク最小化(ERM)のパフォーマンスの正確性を提供する。
論文 参考訳(メタデータ) (2023-05-30T12:18:39Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - On User-Level Private Convex Optimization [59.75368670035683]
ユーザレベルの差分プライバシー保証を伴う凸最適化(SCO)のための新しいメカニズムを提案する。
我々のメカニズムは損失に対する滑らかさの仮定を必要としない。
私たちの限界は、ユーザレベルのプライバシーに必要な最小限のユーザが、その次元に依存しない、最初のものです。
論文 参考訳(メタデータ) (2023-05-08T17:47:28Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - Support Vector Machines with the Hard-Margin Loss: Optimal Training via
Combinatorial Benders' Cuts [8.281391209717105]
我々は、グローバルな最適性のために、ハードマージンのSVMモデルをトレーニングする方法を示す。
本稿では,この問題を解くための反復サンプリングと部分分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-15T18:21:51Z) - Probabilistically Robust Learning: Balancing Average- and Worst-case
Performance [105.87195436925722]
我々は、正確で不安定な平均ケースと頑健で保守的な最悪のケースのギャップを埋める、堅牢性確率というフレームワークを提案する。
理論的には、このフレームワークはパフォーマンスと最悪のケースと平均ケース学習のサンプル複雑さの間のトレードオフを克服する。
論文 参考訳(メタデータ) (2022-02-02T17:01:38Z) - Max-Margin Contrastive Learning [120.32963353348674]
教師なし表現学習のためのMMCL(max-margin contrastive learning)を提案する。
提案手法は2次最適化問題を用いて得られたスパース支持ベクトルとして負を選択する。
我々は、標準ビジョンベンチマークデータセットに対するアプローチを検証し、教師なし表現学習におけるより良い性能を示す。
論文 参考訳(メタデータ) (2021-12-21T18:56:54Z) - Robust Classification via Support Vector Machines [1.7520660701924717]
データ不確実性下での2つの堅牢な分類器を提案する。
1つ目はSP-SVM(Single Perturbation SVM)と呼ばれ、データの1つの特徴に対して制御された摂動を許容することで構成的な方法を提供する。
第2の方法は Extreme Empirical Loss SVM (EEL-SVM) と呼ばれ、新しい経験的損失推定、すなわち Extreme Empirical Loss (EEL) に基づいている。
論文 参考訳(メタデータ) (2021-04-27T20:20:12Z) - Adversarially Robust Learning via Entropic Regularization [31.6158163883893]
我々は、敵対的に堅牢なディープニューラルネットワークを訓練するための新しいアルゴリズムATENTを提案する。
我々の手法は、頑健な分類精度の観点から、競争力(またはより良い)性能を達成する。
論文 参考訳(メタデータ) (2020-08-27T18:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。