論文の概要: Near-Tight Margin-Based Generalization Bounds for Support Vector
Machines
- arxiv url: http://arxiv.org/abs/2006.02175v1
- Date: Wed, 3 Jun 2020 11:22:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:29:09.089199
- Title: Near-Tight Margin-Based Generalization Bounds for Support Vector
Machines
- Title(参考訳): 支持ベクトルマシンの近距離マージンベース一般化境界
- Authors: Allan Gr{\o}nlund, Lior Kamma, Kasper Green Larsen
- Abstract要約: サポートベクトルマシン(SVM)はバイナリ分類の最も基本的なツールである。
本稿では、マージンの観点から古典的な一般化境界を再検討し、改善する。
我々は、ほぼ一致する下界で束縛された新しい一般化を補完するので、マージンの観点からSVMの一般化性能をほぼ確定する。
- 参考スコア(独自算出の注目度): 15.447966950703952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Support Vector Machines (SVMs) are among the most fundamental tools for
binary classification. In its simplest formulation, an SVM produces a
hyperplane separating two classes of data using the largest possible margin to
the data. The focus on maximizing the margin has been well motivated through
numerous generalization bounds. In this paper, we revisit and improve the
classic generalization bounds in terms of margins. Furthermore, we complement
our new generalization bound by a nearly matching lower bound, thus almost
settling the generalization performance of SVMs in terms of margins.
- Abstract(参考訳): サポートベクトルマシン(SVM)はバイナリ分類の最も基本的なツールである。
最も単純な定式化では、SVMはデータに対する最大のマージンを用いて2つのクラスのデータを分離する超平面を生成する。
マージンの最大化への焦点は、多くの一般化境界によって動機づけられている。
本稿では,従来の一般化境界をマージンで再検討し,改善する。
さらに, ほぼ一致する下界で束縛された新たな一般化を補完し, マージンの観点からsvmの一般化性能をほぼ確定する。
関連論文リスト
- New Equivalences Between Interpolation and SVMs: Kernels and Structured
Features [22.231455330003328]
本稿では、任意のカーネルを再生するヒルベルト空間において、ラベルに対するフレキシブルな生成モデルのクラスでSVPを証明するための新しいフレキシブルな分析フレームワークを提案する。
我々は、SVPが以前の作業でカバーされていない多くの興味深い設定で発生していることを示し、カーネルSVM分類のための新しい一般化結果を証明するためにこれらの結果を活用する。
論文 参考訳(メタデータ) (2023-05-03T17:52:40Z) - Margin Optimal Classification Trees [0.0]
最適分類木(OCT)問題に対する新しい混合整数定式化法を提案する。
我々のモデルは、Margin Optimal Classification Tree (MARGOT)と呼ばれ、バイナリ分類のためのSupport Vector Machinesの一般化機能を利用する。
提案手法の解釈可能性を高めるため,超平面の局所的疎結合を誘導する特徴選択制約を含む2種類のMARGOTを解析した。
論文 参考訳(メタデータ) (2022-10-19T14:08:56Z) - Max-Margin Works while Large Margin Fails: Generalization without
Uniform Convergence [55.26547500184405]
既存のツールでは、テストの損失がトレーニングの損失に近いことを保証し、候補モデルのクラスを均一に制御するエム統一コンバージェンス(UC)に依存している。
Nagarajan と Kolter は、ある単純な線形および神経ネットワークの設定において、任意の一様収束境界は空であり、UC が失敗する環境での一般化の証明方法に関する疑問を解き放つことを示している。
我々は、ある信号対雑音のしきい値を超えると、これらの2つの設定でほぼテスト損失が得られないことを示す新しいタイプのマージン境界を証明した。
論文 参考訳(メタデータ) (2022-06-16T02:46:26Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Max-Margin Contrastive Learning [120.32963353348674]
教師なし表現学習のためのMMCL(max-margin contrastive learning)を提案する。
提案手法は2次最適化問題を用いて得られたスパース支持ベクトルとして負を選択する。
我々は、標準ビジョンベンチマークデータセットに対するアプローチを検証し、教師なし表現学習におけるより良い性能を示す。
論文 参考訳(メタデータ) (2021-12-21T18:56:54Z) - Improving Generalization Bounds for VC Classes Using the Hypergeometric
Tail Inversion [3.157455635899373]
本稿では,2つの主要なアイデアを用いて,VCクラスの一般化境界を大幅に改善する。
まず、超幾何反転尾は、VCクラスに対する非常に厳密な非一様分布独立リスク上限を得る。
第二に、ゴーストサンプルのトリックを最適化して、さらに非無視的な利得を得る。
論文 参考訳(メタデータ) (2021-10-29T19:50:34Z) - Measuring Generalization with Optimal Transport [111.29415509046886]
我々は、マージンを最適輸送コストで正規化する、マージンベースの一般化境界を開発する。
我々の境界は、大規模データセット上でトレーニングデータとネットワークパラメータを与えられた一般化誤差を強く予測する。
論文 参考訳(メタデータ) (2021-06-07T03:04:59Z) - Semi-Supervised Domain Generalization with Stochastic StyleMatch [90.98288822165482]
実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかです。
本研究では,より現実的で実践的な半教師付き領域一般化について検討する。
提案手法であるStyleMatchは,擬似ラベルに基づく最先端の半教師付き学習手法であるFixMatchに着想を得たものである。
論文 参考訳(メタデータ) (2021-06-01T16:00:08Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - On the proliferation of support vectors in high dimensions [24.63581896788434]
サポートベクターマシン(英語: Support vector machine、SVM)は、サポートベクターと呼ばれる特定のトレーニング例を参照する、確立された分類法である。
近年の研究では、十分な高次元線形分類問題において、SVMは支持ベクトルの増大にもかかわらず、十分に一般化可能であることが示されている。
論文 参考訳(メタデータ) (2020-09-22T16:45:06Z) - A Unified Framework for Multiclass and Multilabel Support Vector
Machines [6.425654442936364]
マルチクラスおよびマルチラベルの分類問題に対処するために,SVM の簡単な拡張を提案する。
本フレームワークは, 従来のソフトマージンSVMフレームワークから, 直接反対構造で逸脱する。
その結果,マルチクラス分類問題とマルチラベル分類問題の両方に対する競合型分類器が示された。
論文 参考訳(メタデータ) (2020-03-25T03:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。