論文の概要: On the proliferation of support vectors in high dimensions
- arxiv url: http://arxiv.org/abs/2009.10670v2
- Date: Tue, 14 Jun 2022 00:07:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:07:24.598924
- Title: On the proliferation of support vectors in high dimensions
- Title(参考訳): 高次元における支持ベクトルの増殖について
- Authors: Daniel Hsu, Vidya Muthukumar, Ji Xu
- Abstract要約: サポートベクターマシン(英語: Support vector machine、SVM)は、サポートベクターと呼ばれる特定のトレーニング例を参照する、確立された分類法である。
近年の研究では、十分な高次元線形分類問題において、SVMは支持ベクトルの増大にもかかわらず、十分に一般化可能であることが示されている。
- 参考スコア(独自算出の注目度): 24.63581896788434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The support vector machine (SVM) is a well-established classification method
whose name refers to the particular training examples, called support vectors,
that determine the maximum margin separating hyperplane. The SVM classifier is
known to enjoy good generalization properties when the number of support
vectors is small compared to the number of training examples. However, recent
research has shown that in sufficiently high-dimensional linear classification
problems, the SVM can generalize well despite a proliferation of support
vectors where all training examples are support vectors. In this paper, we
identify new deterministic equivalences for this phenomenon of support vector
proliferation, and use them to (1) substantially broaden the conditions under
which the phenomenon occurs in high-dimensional settings, and (2) prove a
nearly matching converse result.
- Abstract(参考訳): サポート・ベクター・マシン(svm)は、最大マージン分離超平面を決定するサポート・ベクターと呼ばれる特定の訓練例を指すよく確立された分類法である。
SVM分類器は、訓練例の数に比べて支持ベクトルの数が小さいとき、よい一般化特性を享受することが知られている。
しかし、近年の研究では、SVMは十分な高次元線形分類問題において、全てのトレーニング例がサポートベクトルであるサポートベクトルの増大にもかかわらず、十分に一般化可能であることが示されている。
本稿では,この支援ベクトル増殖現象に対する新たな決定論的等価性を同定し,(1)高次元環境での現象の発生条件を実質的に拡大し,(2)ほぼ一致する逆結果を示す。
関連論文リスト
- Tverberg's theorem and multi-class support vector machines [0.0]
マルチクラスサポートベクターマシン(SVM)の新しいモデルの設計方法について述べる。
これらのプロトコルは点の集合を分類する条件を少なくし、高次元空間における既存のバイナリSVMアルゴリズムを用いて計算することができる。
本稿では,Veelaert による最大のマージン SVM に対するサポートベクトルの幾何学的特徴付けの新しい簡単な証明を与える。
論文 参考訳(メタデータ) (2024-04-25T16:37:58Z) - HyperVQ: MLR-based Vector Quantization in Hyperbolic Space [56.4245885674567]
ベクトル量子化(HyperVQ)における双曲空間の利用について検討する。
本稿では,高VQが識別タスクにおいてVQを上回り,高度に絡み合った潜在空間を学習しながら,再建作業や生成作業において相容れない性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-03-18T03:17:08Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Max-Margin Contrastive Learning [120.32963353348674]
教師なし表現学習のためのMMCL(max-margin contrastive learning)を提案する。
提案手法は2次最適化問題を用いて得られたスパース支持ベクトルとして負を選択する。
我々は、標準ビジョンベンチマークデータセットに対するアプローチを検証し、教師なし表現学習におけるより良い性能を示す。
論文 参考訳(メタデータ) (2021-12-21T18:56:54Z) - Support Recovery of Sparse Signals from a Mixture of Linear Measurements [48.556633593447465]
簡単な測定からスパースベクトルの支持を回復することは、広く研究されている問題である。
この問題の一般化を考える:線形回帰の混合と線形分類器の混合である。
我々は$k, log n$ および quasi-polynomial を $ell$ で多くの測定値を用いて、混合中の未知ベクトルの全てのサポートを回復するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-10T17:48:13Z) - Support vector machines and linear regression coincide with very
high-dimensional features [5.878391874426428]
SVMに適合するトレーニング例がすべてサポートベクタとなる現象を示す。
まず、独立特徴モデルにおけるベクトル拡散を支援するために必要となる次元(サンプルサイズの観点から)の超線形下界を証明した。
また、ガウス的特徴モデルにおける鋭い位相遷移を同定し、この遷移の幅を制限し、その普遍性に対する実験的支持を与える。
論文 参考訳(メタデータ) (2021-05-28T20:06:21Z) - Estimating Average Treatment Effects with Support Vector Machines [77.34726150561087]
サポートベクターマシン(SVM)は、機械学習文献で最も人気のある分類アルゴリズムの1つです。
我々はsvmをカーネルベースの重み付け手順として適用し,治療群と制御群の最大平均差を最小化する。
このトレードオフから生じる因果効果推定のバイアスを特徴づけ、提案されたSVM手順と既存のカーネルバランシング手法を結びつけます。
論文 参考訳(メタデータ) (2021-02-23T20:22:56Z) - Support vector machines and Radon's theorem [0.5027571997864707]
サポートベクトルマシン(SVM)は、ラベル付きデータポイントを$mathbbRn$で最適に正と負のクラスに分離するハイパープレーンを見つけるアルゴリズムである。
我々は、サポートベクトルの可能な構成をラドンの定理に結びつけ、ある点の集合が2つのクラスに分割できるときの保証を与える。
論文 参考訳(メタデータ) (2020-11-01T19:57:46Z) - Near-Tight Margin-Based Generalization Bounds for Support Vector
Machines [15.447966950703952]
サポートベクトルマシン(SVM)はバイナリ分類の最も基本的なツールである。
本稿では、マージンの観点から古典的な一般化境界を再検討し、改善する。
我々は、ほぼ一致する下界で束縛された新しい一般化を補完するので、マージンの観点からSVMの一般化性能をほぼ確定する。
論文 参考訳(メタデータ) (2020-06-03T11:22:37Z) - A Unified Framework for Multiclass and Multilabel Support Vector
Machines [6.425654442936364]
マルチクラスおよびマルチラベルの分類問題に対処するために,SVM の簡単な拡張を提案する。
本フレームワークは, 従来のソフトマージンSVMフレームワークから, 直接反対構造で逸脱する。
その結果,マルチクラス分類問題とマルチラベル分類問題の両方に対する競合型分類器が示された。
論文 参考訳(メタデータ) (2020-03-25T03:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。