論文の概要: Support vector machines and Radon's theorem
- arxiv url: http://arxiv.org/abs/2011.00617v4
- Date: Fri, 16 Sep 2022 14:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 00:02:08.366529
- Title: Support vector machines and Radon's theorem
- Title(参考訳): サポートベクトルマシンとラドンの定理
- Authors: Henry Adams, Elin Farnell, Brittany Story
- Abstract要約: サポートベクトルマシン(SVM)は、ラベル付きデータポイントを$mathbbRn$で最適に正と負のクラスに分離するハイパープレーンを見つけるアルゴリズムである。
我々は、サポートベクトルの可能な構成をラドンの定理に結びつけ、ある点の集合が2つのクラスに分割できるときの保証を与える。
- 参考スコア(独自算出の注目度): 0.5027571997864707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A support vector machine (SVM) is an algorithm that finds a hyperplane which
optimally separates labeled data points in $\mathbb{R}^n$ into positive and
negative classes. The data points on the margin of this separating hyperplane
are called support vectors. We connect the possible configurations of support
vectors to Radon's theorem, which provides guarantees for when a set of points
can be divided into two classes (positive and negative) whose convex hulls
intersect. If the convex hulls of the positive and negative support vectors are
projected onto a separating hyperplane, then the projections intersect if and
only if the hyperplane is optimal. Further, with a particular type of general
position, we show that (a) the projected convex hulls of the support vectors
intersect in exactly one point, (b) the support vectors are stable under
perturbation, (c) there are at most $n+1$ support vectors, and (d) every number
of support vectors from 2 up to $n+1$ is possible. Finally, we perform computer
simulations studying the expected number of support vectors, and their
configurations, for randomly generated data. We observe that as the distance
between classes of points increases for this type of randomly generated data,
configurations with fewer support vectors become more likely.
- Abstract(参考訳): サポートベクトルマシン (SVM) は、ラベル付きデータポイントを$\mathbb{R}^n$で正と負のクラスに最適に分離する超平面を見つけるアルゴリズムである。
この分離超平面の端にあるデータポイントは、サポートベクトルと呼ばれる。
我々は、サポートベクトルの可能な構成をラドンの定理に結びつける。これは、ある点の集合が凸包が交わる2つのクラス(正と負)に分割できることを保証する。
正および負の支持ベクトルの凸包が分離された超平面に射影された場合、射影は超平面が最適である場合にのみ交差する。
さらに、特定のタイプの一般的な位置において、
(a)支持ベクトルの射影凸包は、正確に1つの点で交わる。
(b)支持ベクトルは摂動下で安定である。
(c)少なくとも$n+1$のサポートベクターがあり、
(d) 2 から $n+1$ までの全てのサポートベクトルが可能である。
最後に、ランダムに生成されたデータに対して、期待するサポートベクター数とその構成を研究するコンピュータシミュレーションを行う。
我々は、このタイプのランダム生成データに対して、点のクラス間の距離が増加するにつれて、サポートベクターの少ない構成がより高まることを観測する。
関連論文リスト
- Tverberg's theorem and multi-class support vector machines [0.0]
マルチクラスサポートベクターマシン(SVM)の新しいモデルの設計方法について述べる。
これらのプロトコルは点の集合を分類する条件を少なくし、高次元空間における既存のバイナリSVMアルゴリズムを用いて計算することができる。
本稿では,Veelaert による最大のマージン SVM に対するサポートベクトルの幾何学的特徴付けの新しい簡単な証明を与える。
論文 参考訳(メタデータ) (2024-04-25T16:37:58Z) - Detection of Correlated Random Vectors [7.320365821066746]
2つのランダムベクトル $mathsfXinmathbbRn$ と $mathsfYinmathbbRn$ は相関するか否かは問わない。
最適テストが情報理論的に不可能で可能なしきい値を分析する。
論文 参考訳(メタデータ) (2024-01-24T12:58:08Z) - Data-Driven Linear Complexity Low-Rank Approximation of General Kernel
Matrices: A Geometric Approach [0.9453554184019107]
K_ij = kappa(x_i,y_j)$ ここで $kappa(x,y)$ はカーネル関数である。
我々は、点の集合 X$ と $Y$ が大きいカーネル行列に対する低ランク近似を求める。
論文 参考訳(メタデータ) (2022-12-24T07:15:00Z) - Vector-valued Distance and Gyrocalculus on the Space of Symmetric
Positive Definite Matrices [7.752212921476838]
ベクトル値距離を用いて距離を計算し、対称正定値行列の多様体から幾何情報を抽出する。
我々は、この曲線空間におけるベクトル空間演算のアナログを構成するジャイロベクトル計算を開発する。
論文 参考訳(メタデータ) (2021-10-26T08:17:51Z) - Spectral properties of sample covariance matrices arising from random
matrices with independent non identically distributed columns [50.053491972003656]
関数 $texttr(AR(z))$, for $R(z) = (frac1nXXT- zI_p)-1$ and $Ain mathcal M_p$ deterministic, have a standard deviation of order $O(|A|_* / sqrt n)$.
ここでは、$|mathbb E[R(z)] - tilde R(z)|_F を示す。
論文 参考訳(メタデータ) (2021-09-06T14:21:43Z) - Pseudo-Euclidean Attract-Repel Embeddings for Undirected Graphs [73.0261182389643]
ドット積埋め込みはグラフをとり、2つのベクトル間のドット積がエッジの強さを与えるようなノードのベクトルを構成する。
ノードを擬ユークリッド空間に埋め込むことにより、推移性仮定を除去する。
Pseudo-Euclidean 埋め込みはネットワークを効率よく圧縮でき、近接する隣人の複数の概念をそれぞれ独自の解釈で解釈でき、既存のモデルに'スロットできる。
論文 参考訳(メタデータ) (2021-06-17T17:23:56Z) - Non-PSD Matrix Sketching with Applications to Regression and
Optimization [56.730993511802865]
非PSDおよび2乗根行列の次元削減法を提案する。
複数のダウンストリームタスクにこれらのテクニックをどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-06-16T04:07:48Z) - A Precise Performance Analysis of Support Vector Regression [105.94855998235232]
我々は,n$の線形測定に応用したハードおよびソフトサポートベクター回帰法について検討した。
得られた結果は、ハードおよびソフトサポートベクトル回帰アルゴリズムの設計に介入するパラメータを最適に調整するために使用される。
論文 参考訳(メタデータ) (2021-05-21T14:26:28Z) - Learning Sparse Graph Laplacian with K Eigenvector Prior via Iterative
GLASSO and Projection [58.5350491065936]
グラフ Laplacian 行列 $L$ 上の構造的仮定を考える。
最初の$K$ eigenvectors of $L$は、例えばドメイン固有の基準に基づいて事前選択される。
本稿では,H_u+$$$$barC$で最も適切なグラフラプラシアン行列$L*を計算するために,効率的なハイブリッドグラフラッソ/投影アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-25T18:12:50Z) - On the proliferation of support vectors in high dimensions [24.63581896788434]
サポートベクターマシン(英語: Support vector machine、SVM)は、サポートベクターと呼ばれる特定のトレーニング例を参照する、確立された分類法である。
近年の研究では、十分な高次元線形分類問題において、SVMは支持ベクトルの増大にもかかわらず、十分に一般化可能であることが示されている。
論文 参考訳(メタデータ) (2020-09-22T16:45:06Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。