論文の概要: Nearly Optimal Clustering Risk Bounds for Kernel K-Means
- arxiv url: http://arxiv.org/abs/2003.03888v2
- Date: Thu, 14 May 2020 01:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 07:58:22.977116
- Title: Nearly Optimal Clustering Risk Bounds for Kernel K-Means
- Title(参考訳): カーネルk-meansのほぼ最適クラスタリングリスク境界
- Authors: Yong Liu and Lizhong Ding and Weiping Wang
- Abstract要約: カーネル$k$-平均の統計特性を調べ、ほぼ最適な余剰クラスタリングリスク境界を求める。
我々の知る限りでは、カーネル(または近似カーネル)の急激な過剰なクラスタリングリスク境界である$k$-meansは、これまで提案されたことがない。
- 参考スコア(独自算出の注目度): 20.663792705336483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the statistical properties of kernel $k$-means and
obtain a nearly optimal excess clustering risk bound, substantially improving
the state-of-art bounds in the existing clustering risk analyses. We further
analyze the statistical effect of computational approximations of the
Nystr\"{o}m kernel $k$-means, and prove that it achieves the same statistical
accuracy as the exact kernel $k$-means considering only $\Omega(\sqrt{nk})$
Nystr\"{o}m landmark points. To the best of our knowledge, such sharp excess
clustering risk bounds for kernel (or approximate kernel) $k$-means have never
been proposed before.
- Abstract(参考訳): 本稿では,カーネル$k$-meansの統計特性について検討し,既存のクラスタリングリスク解析における技術的限界を大幅に改善し,ほぼ最適なクラスタリングリスク境界を求める。
さらに、Nystr\"{o}m カーネル $k$-means の計算近似の統計的効果を解析し、Nystr\"{o}m ランドマークポイントに対して$\Omega(\sqrt{nk})$ Nystr\"{o}m のみを考慮した正確なカーネル $k$-means と同じ統計的精度を達成することを証明した。
我々の知る限りでは、カーネル(または近似カーネル)の急激な過剰なクラスタリングリスク境界である$k$-meansは、これまで提案されたことがない。
関連論文リスト
- The Optimality of Kernel Classifiers in Sobolev Space [3.3253452228326332]
本稿では,カーネル分類器の統計的性能について検討する。
また,2eta(x)-1$の滑らかさを推定する簡単な手法を提案し,本手法を実データセットに適用する。
論文 参考訳(メタデータ) (2024-02-02T05:23:34Z) - Asymptotics for The $k$-means [0.6091702876917281]
k$-meansは統計学と計算機科学において最も重要な教師なし学習手法の1つである。
提案したクラスタリング整合性は,クラスタリング手法の以前の基準整合性よりも適切である。
提案した$k$-means法はクラスタリングエラー率を低くし,小さなクラスタやアウトレイアに対してより堅牢であることがわかった。
論文 参考訳(メタデータ) (2022-11-18T03:36:58Z) - Nystr\"om Kernel Mean Embeddings [92.10208929236826]
Nystr"om法に基づく効率的な近似手法を提案する。
サブサンプルサイズの条件は標準の$n-1/2$レートを得るのに十分である。
本稿では,この結果の最大誤差と二次規則の近似への応用について論じる。
論文 参考訳(メタデータ) (2022-01-31T08:26:06Z) - Kernel Mean Estimation by Marginalized Corrupted Distributions [96.9272743070371]
カーネル平均をヒルベルト空間で推定することは、多くのカーネル学習アルゴリズムにおいて重要な要素である。
本稿では,カーネル平均推定器としてカーネル平均推定器を提案する。
論文 参考訳(メタデータ) (2021-07-10T15:11:28Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Marginalising over Stationary Kernels with Bayesian Quadrature [36.456528055624766]
ガウス過程核の族上のMarginalisingは、よく校正された不確実性推定を持つ柔軟なモデルクラスを生成する。
本稿では, この限界化をより効率的に, より実用的なものにするためのベイズ四分法を提案する。
論文 参考訳(メタデータ) (2021-06-14T14:23:34Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Kernel Alignment Risk Estimator: Risk Prediction from Training Data [10.739602293023058]
我々はKRR(Kernel Ridge Regression)のリスク(すなわち一般化誤差)を、ridge $lambda>0$およびi.i.d.観測値を持つカーネル$K$に対して検討する。
本稿では、SCT(Signal Capture Threshold)とKARE(Kernel Alignment Risk Estimator)の2つのオブジェクトを紹介する。
論文 参考訳(メタデータ) (2020-06-17T12:00:05Z) - Computationally efficient sparse clustering [67.95910835079825]
我々はPCAに基づく新しいクラスタリングアルゴリズムの有限サンプル解析を行う。
ここでは,ミニマックス最適誤クラスタ化率を,体制$|theta infty$で達成することを示す。
論文 参考訳(メタデータ) (2020-05-21T17:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。