論文の概要: Reproducing Kernel Hilbert Space, Mercer's Theorem, Eigenfunctions,
Nystr\"om Method, and Use of Kernels in Machine Learning: Tutorial and Survey
- arxiv url: http://arxiv.org/abs/2106.08443v1
- Date: Tue, 15 Jun 2021 21:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:34:21.276407
- Title: Reproducing Kernel Hilbert Space, Mercer's Theorem, Eigenfunctions,
Nystr\"om Method, and Use of Kernels in Machine Learning: Tutorial and Survey
- Title(参考訳): Kernel Hilbert Space, Mercer's Theorem, Eigenfunctions, Nystr\"om Method, and use of Kernels in Machine Learning: Tutorial and Survey
- Authors: Benyamin Ghojogh, Ali Ghodsi, Fakhri Karray, Mark Crowley
- Abstract要約: まず、機能分析と機械学習におけるカーネルの歴史のレビューから始めます。
本稿では,カーネル手法,半確定プログラミングによるカーネル学習,Hilbert-Schmidt独立性基準,最大平均誤差,カーネル平均埋め込み,カーネル次元削減など,機械学習におけるカーネルの利用方法を紹介する。
本論文は, 機械学習, 次元減少, 数学の関数解析, 量子力学の数学物理学など, 様々な科学分野に有用である。
- 参考スコア(独自算出の注目度): 5.967999555890417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is a tutorial and survey paper on kernels, kernel methods, and related
fields. We start with reviewing the history of kernels in functional analysis
and machine learning. Then, Mercer kernel, Hilbert and Banach spaces,
Reproducing Kernel Hilbert Space (RKHS), Mercer's theorem and its proof,
frequently used kernels, kernel construction from distance metric, important
classes of kernels (including bounded, integrally positive definite, universal,
stationary, and characteristic kernels), kernel centering and normalization,
and eigenfunctions are explained in detail. Then, we introduce types of use of
kernels in machine learning including kernel methods (such as kernel support
vector machines), kernel learning by semi-definite programming, Hilbert-Schmidt
independence criterion, maximum mean discrepancy, kernel mean embedding, and
kernel dimensionality reduction. We also cover rank and factorization of kernel
matrix as well as the approximation of eigenfunctions and kernels using the
Nystr{\"o}m method. This paper can be useful for various fields of science
including machine learning, dimensionality reduction, functional analysis in
mathematics, and mathematical physics in quantum mechanics.
- Abstract(参考訳): これはカーネル、カーネルメソッド、および関連する分野に関するチュートリアルおよび調査論文である。
機能分析と機械学習におけるカーネルの歴史のレビューから始めます。
次に、マーサー核、ヒルベルトおよびバナッハ空間、再現するケルネルヒルベルト空間(RKHS)、マーサーの定理とその証明、頻繁に使われるカーネル、距離計量からのカーネル構成、カーネルの重要なクラス(有界、積分正定値、普遍的、定常的、特徴的核を含む)、カーネル中心と正規化、固有函数を詳細に説明する。
次に、カーネルメソッド(カーネルサポートベクターマシンなど)、半定値プログラミングによるカーネル学習、ヒルベルト・シュミット独立基準、最大平均偏差、カーネル平均埋め込み、カーネル次元減少を含む、機械学習におけるカーネルの使用の種類を紹介する。
また,nystr{\"o}m法による固有関数とカーネルの近似と同様に,カーネル行列の階数と因子分解もカバーする。
本論文は, 機械学習, 次元減少, 数学の関数解析, 量子力学の数学物理学など, 様々な科学分野に有用である。
関連論文リスト
- Spectral Truncation Kernels: Noncommutativity in $C^*$-algebraic Kernel Machines [12.11705128358537]
スペクトルトランケーションに基づく正定値カーネルの新しいクラスを提案する。
性能向上につながる要因であることを示す。
また,スペクトルトランケーションカーネルの表現能力を高めるための深層学習の視点も提案する。
論文 参考訳(メタデータ) (2024-05-28T04:47:12Z) - Geometric Learning with Positively Decomposable Kernels [6.5497574505866885]
本稿では、正の分解を許容するカーネルのみを必要とするカーネルKrein空間(RKKS)を再現する手法を提案する。
RKKSで学習するためには、この分解にアクセスする必要はない。
論文 参考訳(メタデータ) (2023-10-20T21:18:04Z) - Reproducing kernel Hilbert spaces in the mean field limit [6.844996517347866]
カーネルはカーネルによって生成される関数空間であり、再生カーネルヒルベルト空間と呼ばれる。
カーネルの厳密な平均場極限を示し、ヒルベルト空間を再現する極限の詳細な解析を行う。
論文 参考訳(メタデータ) (2023-02-28T09:46:44Z) - Geometry-aware Bayesian Optimization in Robotics using Riemannian
Mat\'ern Kernels [64.62221198500467]
ベイズ最適化のための幾何対応カーネルの実装方法を示す。
この技術は、ロボット工学における制御パラメータチューニング、パラメトリックポリシー適応、構造設計に利用できる。
論文 参考訳(メタデータ) (2021-11-02T09:47:22Z) - Fast Sketching of Polynomial Kernels of Polynomial Degree [61.83993156683605]
他のカーネルはしばしばテイラー級数展開を通じてカーネルによって近似されるので、カーネルは特に重要である。
スケッチの最近の技術は、カーネルの$q$という難解な程度に実行時間に依存することを減らしている。
我々は、この実行時間を大幅に改善する新しいスケッチを、先頭の注文項で$q$への依存を取り除くことで提供します。
論文 参考訳(メタデータ) (2021-08-21T02:14:55Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Covariant quantum kernels for data with group structure [1.51714450051254]
グループ構造を持つデータに使用できる量子カーネルのクラスを紹介する。
本手法を,グループにおける多くの本質的な学習課題の構造を具現化したコセット空間上の学習問題に適用する。
論文 参考訳(メタデータ) (2021-05-07T17:38:58Z) - Faster Kernel Matrix Algebra via Density Estimation [46.253698241653254]
正半定核行列 $K の基本特性を $n$ 点に対応する n$ で計算するための高速アルゴリズムについて研究する。
論文 参考訳(メタデータ) (2021-02-16T18:25:47Z) - Lecture notes: Efficient approximation of kernel functions [4.177892889752434]
核の性質を理解するのに必要な数学的背景を1つの場所で収集する努力。
サポートベクタマシンの例を用いて,機械学習におけるカーネルの利用を短時間で動機づける。
再現ケルネルヒルベルト空間の構成を含むヒルベルト空間に関する簡単な議論の後、マーサーの定理を提示する。
論文 参考訳(メタデータ) (2020-05-04T15:30:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。