論文の概要: Fast kernel methods: Sobolev, physics-informed, and additive models
- arxiv url: http://arxiv.org/abs/2509.02649v1
- Date: Tue, 02 Sep 2025 12:07:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.27969
- Title: Fast kernel methods: Sobolev, physics-informed, and additive models
- Title(参考訳): 高速カーネル法:ソボレフ、物理インフォームド、加法モデル
- Authors: Nathan Doumèche, Francis Bach, Gérard Biau, Claire Boyer,
- Abstract要約: 我々はO(n log n)の複雑さを伴うカーネルレグレッションのためのスケーラブルなフレームワークを導入する。
Sobolevカーネル回帰、物理インフォームド回帰、追加モデルという3つの設定でフレームワークをインスタンス化する。
実験の結果、我々の手法は数分で最大で数千億のサンプルを処理できることが示された。
- 参考スコア(独自算出の注目度): 9.003833238370122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel methods are powerful tools in statistical learning, but their cubic complexity in the sample size n limits their use on large-scale datasets. In this work, we introduce a scalable framework for kernel regression with O(n log n) complexity, fully leveraging GPU acceleration. The approach is based on a Fourier representation of kernels combined with non-uniform fast Fourier transforms (NUFFT), enabling exact, fast, and memory-efficient computations. We instantiate our framework in three settings: Sobolev kernel regression, physics-informed regression, and additive models. When known, the proposed estimators are shown to achieve minimax convergence rates, consistent with classical kernel theory. Empirical results demonstrate that our methods can process up to tens of billions of samples within minutes, providing both statistical accuracy and computational scalability. These contributions establish a flexible approach, paving the way for the routine application of kernel methods in large-scale learning tasks.
- Abstract(参考訳): カーネル法は統計学習において強力なツールであるが、サンプルサイズnの3次複雑さは大規模なデータセットの使用を制限する。
本稿では,O(n log n)複雑性を持つカーネルレグレッションのためのスケーラブルなフレームワークを導入し,GPUアクセラレーションを完全に活用する。
このアプローチはカーネルのフーリエ表現と非一様高速フーリエ変換(NUFFT)を組み合わせることで、正確、高速、メモリ効率の計算を可能にする。
Sobolevカーネル回帰、物理インフォームド回帰、追加モデルという3つの設定でフレームワークをインスタンス化する。
提案した推定器が既知の場合、古典的カーネル理論と一致する最小収束率を達成することが示される。
実験により,提案手法は数分で最大で数千億のサンプルを処理でき,統計的精度と計算スケーラビリティの両立が実証された。
これらのコントリビューションはフレキシブルなアプローチを確立し、大規模な学習タスクにカーネルメソッドを日常的に適用する方法を確立している。
関連論文リスト
- Higher-order topological kernels via quantum computation [68.8204255655161]
トポロジカルデータ分析(TDA)は、複雑なデータから意味のある洞察を抽出する強力なツールとして登場した。
本稿では,ベッチ曲線の次数増加に基づくBettiカーネルの量子的定義法を提案する。
論文 参考訳(メタデータ) (2023-07-14T14:48:52Z) - RFFNet: Large-Scale Interpretable Kernel Methods via Random Fourier Features [3.0079490585515347]
RFFNetは1次最適化によってカーネルの関連性をリアルタイムで学習するスケーラブルな手法である。
提案手法はメモリフットプリントが小さく,実行時,予測誤差が低く,関連する特徴を効果的に識別できることを示す。
私たちは、Scikit-learn標準APIと結果を完全に再現するためのコードに準拠した、効率的でPyTorchベースのライブラリをユーザに提供します。
論文 参考訳(メタデータ) (2022-11-11T18:50:34Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - The Fast Kernel Transform [21.001203328543006]
本稿では,FKT(Fast Kernel Transform:高速カーネル変換)を提案する。
FKT はガウス、マテルン、ラショナル四次共分散関数や物理的に動機付けられたグリーン関数など、幅広い種類のカーネルに容易に適用できる。
本稿では、時間と精度のベンチマークを提供することによりFKTの有効性と汎用性を説明し、それを近隣埋め込み(t-SNE)とガウス過程を大規模実世界のデータセットに拡張する。
論文 参考訳(メタデータ) (2021-06-08T16:15:47Z) - Gauss-Legendre Features for Gaussian Process Regression [7.37712470421917]
カーネル行列の低階近似を用いてガウス過程の回帰をスケールアップするためのガウス・レーゲンドル二次法を提案する。
この手法はよく知られたランダムなフーリエ特徴法に触発され、数値積分による低ランク近似も構築する。
論文 参考訳(メタデータ) (2021-01-04T18:09:25Z) - Learning Compositional Sparse Gaussian Processes with a Shrinkage Prior [26.52863547394537]
本稿では,カーネル選択のスパーシティをホースシュープリアーで処理することにより,カーネル構成を学習するための新しい確率論的アルゴリズムを提案する。
本モデルは,計算時間を大幅に削減した時系列特性をキャプチャし,実世界のデータセット上での競合回帰性能を有する。
論文 参考訳(メタデータ) (2020-12-21T13:41:15Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。