論文の概要: Kernel PCA with the Nystr\"om method
- arxiv url: http://arxiv.org/abs/2109.05578v1
- Date: Sun, 12 Sep 2021 18:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 09:46:35.603884
- Title: Kernel PCA with the Nystr\"om method
- Title(参考訳): Nystr\"om法によるカーネルPCA
- Authors: Fredrik Hallgren
- Abstract要約: Nystr"om法を用いてカーネルPCAを導出し,その精度について検討する。
Nystr"om法を用いてカーネルの主成分回帰を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kernel methods are powerful but computationally demanding techniques for
non-linear learning. A popular remedy, the Nystr\"om method has been shown to
be able to scale up kernel methods to very large datasets with little loss in
accuracy. However, kernel PCA with the Nystr\"om method has not been widely
studied. In this paper we derive kernel PCA with the Nystr\"om method and study
its accuracy, providing a finite-sample confidence bound on the difference
between the Nystr\"om and standard empirical reconstruction errors. The
behaviours of the method and bound are illustrated through extensive computer
experiments on real-world data. As an application of the method we present
kernel principal component regression with the Nystr\"om method.
- Abstract(参考訳): カーネル法は強力だが非線形学習のための計算に要求される手法である。
一般的な治療法であるNystr\"omメソッドは、カーネルメソッドを非常に大きなデータセットにスケールアップすることができ、精度の低下はほとんどない。
しかし、Nystr\"om法によるカーネルPCAは広く研究されていない。
本稿では,カーネルpcaをnystr\"om法で導出し,その精度について検討し,nystr\"omと標準経験的再構成誤差との差を限定した有限サンプル信頼度を与える。
手法とバウンドの挙動は、実世界のデータに関する広範なコンピュータ実験を通して説明される。
この手法の応用として, カーネル主成分回帰法をnystr\"om法で提案する。
関連論文リスト
- On the Approximation of Kernel functions [0.0]
論文はカーネル自体の近似に対処する。
単位立方体上のヒルベルト・ガウス核に対して、この論文は関連する固有関数の上界を確立する。
この改良により、Nystr"om法のような低階近似法が確かめられる。
論文 参考訳(メタデータ) (2024-03-11T13:50:07Z) - Geometric Learning with Positively Decomposable Kernels [6.5497574505866885]
本稿では、正の分解を許容するカーネルのみを必要とするカーネルKrein空間(RKKS)を再現する手法を提案する。
RKKSで学習するためには、この分解にアクセスする必要はない。
論文 参考訳(メタデータ) (2023-10-20T21:18:04Z) - Predicted Embedding Power Regression for Large-Scale Out-of-Distribution
Detection [77.1596426383046]
本研究では,学習過程において学習したラベル分布に基づいて,予測されたクラスラベルの確率を計算する手法を開発した。
提案手法は,計算コストの最小化のみで,現在の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-03-07T18:28:39Z) - Improved Convergence Rates for Sparse Approximation Methods in
Kernel-Based Learning [48.08663378234329]
カーネル・リッジ・レグレッションやガウシアン・プロセスのようなカーネル・ベース・モデルは機械学習の応用においてユビキタスである。
既存のスパース近似法は計算コストを大幅に削減することができる。
我々は,Nystr"om法と疎変動ガウス過程近似法に対して,新しい信頼区間を提供する。
論文 参考訳(メタデータ) (2022-02-08T17:22:09Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Nystr\"om Kernel Mean Embeddings [92.10208929236826]
Nystr"om法に基づく効率的な近似手法を提案する。
サブサンプルサイズの条件は標準の$n-1/2$レートを得るのに十分である。
本稿では,この結果の最大誤差と二次規則の近似への応用について論じる。
論文 参考訳(メタデータ) (2022-01-31T08:26:06Z) - The Unreasonable Effectiveness of Patches in Deep Convolutional Kernels
Methods [0.0]
本稿では,畳み込みカーネル法の性能向上の鍵となる,データ依存型特徴抽出手法の重要性を示す。
この手法を挑戦的なImageNetデータセットにスケールアップし、そのような単純なアプローチが既存のすべての非学習表現メソッドを超えることを示した。
論文 参考訳(メタデータ) (2021-01-19T09:30:58Z) - A Bregman Method for Structure Learning on Sparse Directed Acyclic
Graphs [84.7328507118758]
構造学習のためのBregman近位勾配法を開発した。
高い非線形反復に対する曲率の影響を計測する。
様々な合成および実集合上で本手法をテストする。
論文 参考訳(メタデータ) (2020-11-05T11:37:44Z) - A Perturbation-Based Kernel Approximation Framework [0.0]
我々は、古典的摂動理論に基づく摂動に基づくカーネル近似フレームワークを導出する。
提案手法は, 近似されたカーネル行列の構造を利用するために調整可能な, 新たなカーネル近似スキームを創出することを示す。
論文 参考訳(メタデータ) (2020-09-07T09:14:18Z) - Improved guarantees and a multiple-descent curve for Column Subset
Selection and the Nystr\"om method [76.73096213472897]
我々は,データ行列のスペクトル特性を利用して近似保証を改良する手法を開発した。
我々のアプローチは、特異値減衰の既知の速度を持つデータセットのバウンダリが大幅に向上する。
RBFパラメータを変更すれば,改良された境界線と多重発振曲線の両方を実データセット上で観測できることが示される。
論文 参考訳(メタデータ) (2020-02-21T00:43:06Z) - Face Verification via learning the kernel matrix [9.414572104591027]
カーネル関数は非線形パターン認識問題を解決するために導入された。
有望なアプローチは、データからカーネルを自動的に学習することだ。
本稿では,カーネル行列の学習による非線形顔認証を提案する。
論文 参考訳(メタデータ) (2020-01-21T03:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。