論文の概要: Sparse Spectrum Warped Input Measures for Nonstationary Kernel Learning
- arxiv url: http://arxiv.org/abs/2010.04315v1
- Date: Fri, 9 Oct 2020 01:10:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 04:38:42.715107
- Title: Sparse Spectrum Warped Input Measures for Nonstationary Kernel Learning
- Title(参考訳): 非定常カーネル学習のためのスパーススペクトル歪入力法
- Authors: Anthony Tompkins, Rafael Oliveira, Fabio Ramos
- Abstract要約: 本研究では,非定常カーネルを学習するための明示的,入力に依存した,計測値のワーピングの一般的な形式を提案する。
提案した学習アルゴリズムは、標準定常カーネルの滑らかさを制御する条件付きガウス測度として入力をワープする。
我々は,小・大規模データ体制の学習問題において,ワーピング関数のパラメータ数に顕著な効率性を示す。
- 参考スコア(独自算出の注目度): 29.221457769884648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We establish a general form of explicit, input-dependent, measure-valued
warpings for learning nonstationary kernels. While stationary kernels are
ubiquitous and simple to use, they struggle to adapt to functions that vary in
smoothness with respect to the input. The proposed learning algorithm warps
inputs as conditional Gaussian measures that control the smoothness of a
standard stationary kernel. This construction allows us to capture
non-stationary patterns in the data and provides intuitive inductive bias. The
resulting method is based on sparse spectrum Gaussian processes, enabling
closed-form solutions, and is extensible to a stacked construction to capture
more complex patterns. The method is extensively validated alongside related
algorithms on synthetic and real world datasets. We demonstrate a remarkable
efficiency in the number of parameters of the warping functions in learning
problems with both small and large data regimes.
- Abstract(参考訳): 非定常カーネルを学習するための明示的、入力依存、測定値のウォーピングの一般的な形式を確立する。
定常カーネルはユビキタスで使いやすいが、入力に対する滑らかさの異なる関数への適応に苦労している。
提案する学習アルゴリズムは、標準定常核の滑らかさを制御する条件付きガウス測度として入力をワープする。
この構造により、データ内の非定常パターンをキャプチャし、直感的な帰納バイアスを与えます。
得られた方法はスパーススペクトルガウス過程に基づいており、閉形式解を可能にし、より複雑なパターンを捉えるために積み重ねられた構造に拡張可能である。
この方法は、合成および実世界のデータセット上の関連するアルゴリズムと共に広範囲に検証される。
我々は,小・大規模データ体制の学習問題において,ワーピング関数のパラメータ数に顕著な効率性を示す。
関連論文リスト
- Gradient-Based Feature Learning under Structured Data [57.76552698981579]
異方性設定では、一般的に使用される球面勾配力学は真の方向を回復できないことがある。
バッチ正規化を連想させる適切な重み正規化は、この問題を軽減することができることを示す。
特に、スパイクモデルの下では、勾配に基づくトレーニングのサンプルの複雑さは情報指数とは独立にできる。
論文 参考訳(メタデータ) (2023-09-07T16:55:50Z) - Manifold Learning with Sparse Regularised Optimal Transport [0.17205106391379024]
実世界のデータセットはノイズの多い観測とサンプリングを受けており、基礎となる多様体に関する情報を蒸留することが大きな課題である。
本稿では,2次正規化を用いた最適輸送の対称版を利用する多様体学習法を提案する。
得られたカーネルは連続的な極限においてLaplace型演算子と整合性を証明し、ヘテロスケダスティックノイズに対する堅牢性を確立し、これらの結果をシミュレーションで示す。
論文 参考訳(メタデータ) (2023-07-19T08:05:46Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Learning Globally Smooth Functions on Manifolds [94.22412028413102]
スムーズな関数の学習は、線形モデルやカーネルモデルなどの単純なケースを除いて、一般的に難しい。
本研究は,半無限制約学習と多様体正規化の技法を組み合わせることで,これらの障害を克服することを提案する。
軽度条件下では、この手法は解のリプシッツ定数を推定し、副生成物として大域的に滑らかな解を学ぶ。
論文 参考訳(メタデータ) (2022-10-01T15:45:35Z) - Nonparametric learning of kernels in nonlocal operators [6.314604944530131]
非局所作用素におけるカーネル学習のための厳密な識別可能性解析および収束研究を提供する。
本稿では,新しいデータ適応型RKHS Tikhonov正規化手法を用いた非パラメトリック回帰アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T02:47:55Z) - Linear Time Kernel Matrix Approximation via Hyperspherical Harmonics [3.24890820102255]
機械学習のカーネル手法で発生する行列の低ランク近似を構築するための新しい手法を提案する。
提案手法では,基礎となるカーネル関数の解析的拡張をデータ依存圧縮ステップと組み合わせて,近似をさらに最適化する。
実験の結果,提案手法は,与えられたランクの精度と,与えられた精度の計算時間の両方に関して,カーネル,次元,データセットにまたがってよく用いられるNystrom法と比較した。
論文 参考訳(メタデータ) (2022-02-08T05:19:39Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Overcoming the curse of dimensionality with Laplacian regularization in
semi-supervised learning [80.20302993614594]
ラプラシア正規化の欠点を克服するための統計的解析を提供する。
望ましい振る舞いを示すスペクトルフィルタリング法を多数発表する。
我々は,本手法を大量のデータで利用できるようにするために,現実的な計算ガイドラインを提供する。
論文 参考訳(メタデータ) (2020-09-09T14:28:54Z) - Randomly Projected Additive Gaussian Processes for Regression [37.367935314532154]
GPレグレッションにはカーネルの加算和を使用し、各カーネルはその入力の異なるランダムなプロジェクションで動作する。
この収束とその速度を証明し、純粋にランダムな射影よりも早く収束する決定論的アプローチを提案する。
論文 参考訳(メタデータ) (2019-12-30T07:26:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。