論文の概要: Feature maps for the Laplacian kernel and its generalizations
- arxiv url: http://arxiv.org/abs/2502.15575v1
- Date: Fri, 21 Feb 2025 16:36:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:11:46.337887
- Title: Feature maps for the Laplacian kernel and its generalizations
- Title(参考訳): ラプラシア核の特徴写像とその一般化
- Authors: Sudhendu Ahir, Parthe Pandit,
- Abstract要約: ガウス核とは異なり、ラプラシア核は分離できない。
ラプラシア核とその2つの一般化に対してランダムな特徴を与える。
実データセット上でこれらのランダムな特徴写像の有効性を実証する。
- 参考スコア(独自算出の注目度): 3.671202973761375
- License:
- Abstract: Recent applications of kernel methods in machine learning have seen a renewed interest in the Laplacian kernel, due to its stability to the bandwidth hyperparameter in comparison to the Gaussian kernel, as well as its expressivity being equivalent to that of the neural tangent kernel of deep fully connected networks. However, unlike the Gaussian kernel, the Laplacian kernel is not separable. This poses challenges for techniques to approximate it, especially via the random Fourier features (RFF) methodology and its variants. In this work, we provide random features for the Laplacian kernel and its two generalizations: Mat\'{e}rn kernel and the Exponential power kernel. We provide efficiently implementable schemes to sample weight matrices so that random features approximate these kernels. These weight matrices have a weakly coupled heavy-tailed randomness. Via numerical experiments on real datasets we demonstrate the efficacy of these random feature maps.
- Abstract(参考訳): 近年の機械学習におけるカーネル手法の応用は、ガウスカーネルに比べて帯域幅ハイパーパラメータが安定していることや、その表現性が深い完全連結ネットワークのニューラルネットワークカーネルと同等であることから、ラプラシアカーネルに新たな関心が寄せられている。
しかし、ガウス核とは異なり、ラプラシア核は分離できない。
これは、特にランダムフーリエ特徴量(RFF)法とその変種を通して、それを近似する手法の課題を提起する。
本研究では,ラプラシアンカーネルとその2つの一般化であるMat\'{e}rnカーネルと指数パワーカーネルにランダムな特徴を与える。
ランダムな特徴がこれらのカーネルに近似するように、重み行列を効率的に実装可能なスキームを提供する。
これらの重み行列は、弱い結合した重み付きランダム性を持つ。
実データセットに関する数値実験により、これらのランダムな特徴写像の有効性を実証する。
関連論文リスト
- A mixture representation of the spectral distribution of isotropic kernels with application to random Fourier features [0.0]
任意の正定値等方性カーネルのスペクトル分布は$alpha$-stableランダムベクトルのスケール混合として分解可能であることを示す。
この構成的分解は、多変量正定値シフト不変カーネル毎に単純かつ使用可能なスペクトルサンプリング式を提供する。
この結果は、サポートベクターマシン、カーネルリッジ回帰、ガウス過程、その他のカーネルベースの機械学習技術に広く応用されている。
論文 参考訳(メタデータ) (2024-11-05T03:28:01Z) - Variable Hyperparameterized Gaussian Kernel using Displaced Squeezed Vacuum State [2.1408617023874443]
多モードコヒーレント状態は、ハイパーパラメータの定数値を持つガウス核を生成することができる。
この定数ハイパーパラメータは、複雑な学習問題に適用されるときにガウスカーネルの適用を制限する。
マルチモード変位真空状態の可変ハイパーパラメータ化カーネルを実現する。
論文 参考訳(メタデータ) (2024-03-18T08:25:56Z) - Orthogonal Random Features: Explicit Forms and Sharp Inequalities [5.8317379706611385]
直交乱数特徴に基づくカーネル近似のバイアスと分散を解析する。
正規化されたベッセル関数を用いてこれらの量に対して明示的な表現を提供する。
論文 参考訳(メタデータ) (2023-10-11T10:40:43Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Flow-based Kernel Prior with Application to Blind Super-Resolution [143.21527713002354]
カーネル推定は一般にブラインド画像超解像(SR)の鍵となる問題の一つである
本稿では,カーネルモデリングのための正規化フローベースカーネルプリレント(fkp)を提案する。
合成および実世界の画像の実験により、提案したFKPがカーネル推定精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-03-29T22:37:06Z) - On the Similarity between the Laplace and Neural Tangent Kernels [26.371904197642145]
完全に接続されたネットワークに対するNTKは標準のLaplaceカーネルと密接に関連していることを示す。
この結果から,よく知られたLaplaceカーネルの解析から,ニューラルネットワークに関する多くの知見が得られることが示唆された。
論文 参考訳(メタデータ) (2020-07-03T09:48:23Z) - Scaling up Kernel Ridge Regression via Locality Sensitive Hashing [6.704115928005158]
ランダムな双対関数の重み付け版を導入し、対応するカーネル関数が滑らかなガウス過程を生成することを示す。
重み付けされたランダムなバイナリ化特徴は、対応するカーネル行列にスペクトル近似を与え、カーネルリッジ回帰の効率的なアルゴリズムをもたらすことを示す。
論文 参考訳(メタデータ) (2020-03-21T21:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。