論文の概要: Total Stability of SVMs and Localized SVMs
- arxiv url: http://arxiv.org/abs/2101.12678v1
- Date: Fri, 29 Jan 2021 16:44:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 12:51:57.855304
- Title: Total Stability of SVMs and Localized SVMs
- Title(参考訳): SVMの総安定性とSVMの局所化
- Authors: Hannes K\"ohler, Andreas Christmann
- Abstract要約: サポートベクトルマシン(SVM)のような正規化されたカーネルベースのメソッドは、基礎となる確率測度$mathrmP$に依存する。
本稿では,3つの$(mathrmP,lambda,k)$の同時変動が,結果の予測に及ぼす影響について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regularized kernel-based methods such as support vector machines (SVMs)
typically depend on the underlying probability measure $\mathrm{P}$
(respectively an empirical measure $\mathrm{D}_n$ in applications) as well as
on the regularization parameter $\lambda$ and the kernel $k$. Whereas classical
statistical robustness only considers the effect of small perturbations in
$\mathrm{P}$, the present paper investigates the influence of simultaneous
slight variations in the whole triple $(\mathrm{P},\lambda,k)$, respectively
$(\mathrm{D}_n,\lambda_n,k)$, on the resulting predictor. Existing results from
the literature are considerably generalized and improved. In order to also make
them applicable to big data, where regular SVMs suffer from their super-linear
computational requirements, we show how our results can be transferred to the
context of localized learning. Here, the effect of slight variations in the
applied regionalization, which might for example stem from changes in
$\mathrm{P}$ respectively $\mathrm{D}_n$, is considered as well.
- Abstract(参考訳): サポートベクトルマシン(SVM)のような正規化されたカーネルベースのメソッドは、通常、基礎となる確率測度$\mathrm{P}$(アプリケーションにおける経験的測度$\mathrm{D}_n$)と正規化パラメータ$\lambda$とカーネル$k$に依存する。
古典的な統計的ロバスト性は、$\mathrm{P}$の小さな摂動の影響しか考慮しないが、本論文では、三重項$(\mathrm{P},\lambda,k)$,それぞれ$(\mathrm{D}_n,\lambda_n,k)$の同時小変動が、結果として生じる予測子に与える影響について検討する。
文献からの既存の結果はかなり一般化され、改善されます。
一般のSVMが超線形計算要求に悩まされるようなビッグデータにも適用できるようにするため,我々の結果が局所学習の文脈にどのように移行できるかを示す。
ここでは、例えば $\mathrm{P}$ のそれぞれ $\mathrm{D}_n$ の変化から生じる可能性のある適用地域化におけるわずかな変動の効果も考慮される。
関連論文リスト
- Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - Approximate Function Evaluation via Multi-Armed Bandits [51.146684847667125]
既知の滑らかな関数 $f$ の値を未知の点 $boldsymbolmu in mathbbRn$ で推定する問題について検討する。
我々は、各座標の重要性に応じてサンプルを学習するインスタンス適応アルゴリズムを設計し、少なくとも1-delta$の確率で$epsilon$の正確な推定値である$f(boldsymbolmu)$を返す。
論文 参考訳(メタデータ) (2022-03-18T18:50:52Z) - Differentiated uniformization: A new method for inferring Markov chains
on combinatorial state spaces including stochastic epidemic models [0.0]
我々は$partialexp!(tQ)theta$を計算するための類似アルゴリズムを提供する。
オーストリアでのCOVID-19パンデミックの第1波における毎月の感染と回復率を推定する。
論文 参考訳(メタデータ) (2021-12-21T03:59:06Z) - Random matrices in service of ML footprint: ternary random features with
no performance loss [55.30329197651178]
我々は、$bf K$ の固有スペクトルが$bf w$ の i.d. 成分の分布とは独立であることを示す。
3次ランダム特徴(TRF)と呼ばれる新しいランダム手法を提案する。
提案したランダムな特徴の計算には乗算が不要であり、古典的なランダムな特徴に比べてストレージに$b$のコストがかかる。
論文 参考訳(メタデータ) (2021-10-05T09:33:49Z) - Spectral properties of sample covariance matrices arising from random
matrices with independent non identically distributed columns [50.053491972003656]
関数 $texttr(AR(z))$, for $R(z) = (frac1nXXT- zI_p)-1$ and $Ain mathcal M_p$ deterministic, have a standard deviation of order $O(|A|_* / sqrt n)$.
ここでは、$|mathbb E[R(z)] - tilde R(z)|_F を示す。
論文 参考訳(メタデータ) (2021-09-06T14:21:43Z) - Truncated Linear Regression in High Dimensions [26.41623833920794]
truncated linear regression において、従属変数 $(A_i, y_i)_i$ は $y_i= A_irm T cdot x* + eta_i$ は固定された未知の興味ベクトルである。
目標は、$A_i$とノイズ分布に関するいくつかの好ましい条件の下で$x*$を回復することである。
我々は、$k$-sparse $n$-dimensional vectors $x*$ from $m$ truncated sample。
論文 参考訳(メタデータ) (2020-07-29T00:31:34Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z) - Does generalization performance of $l^q$ regularization learning depend
on $q$? A negative example [19.945160684285003]
$lq$-regularizationは、機械学習と統計モデリングにおいて魅力的なテクニックであることが示されている。
0 infty$ に対するすべての $lq$ 推定子は、同様の一般化誤差境界が得られることを示す。
この発見は、あるモデリングの文脈において、$q$の選択が一般化能力に強い影響を与えることはないことを仮に示している。
論文 参考訳(メタデータ) (2013-07-25T00:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。