論文の概要: gp2Scale: A Class of Compactly-Supported Non-Stationary Kernels and Distributed Computing for Exact Gaussian Processes on 10 Million Data Points
- arxiv url: http://arxiv.org/abs/2512.06143v1
- Date: Fri, 05 Dec 2025 20:52:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.205638
- Title: gp2Scale: A Class of Compactly-Supported Non-Stationary Kernels and Distributed Computing for Exact Gaussian Processes on 10 Million Data Points
- Title(参考訳): gp2Scale: 1000万のデータポイントのガウス的プロセスのためのコンパクトな非定常カーネルと分散コンピューティングのクラス
- Authors: Marcus M. Noack, Mark D. Risser, Hengrui Luo, Vardaan Tekriwal, Ronald J. Pandolfi,
- Abstract要約: 本稿では,正確なガウス過程を1000万以上のデータポイントにスケールする手法を提案する。
いくつかの実世界のデータセットに本手法の機能を示し,それを最先端の近似アルゴリズムと比較する。
- 参考スコア(独自算出の注目度): 3.649118516936603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite a large corpus of recent work on scaling up Gaussian processes, a stubborn trade-off between computational speed, prediction and uncertainty quantification accuracy, and customizability persists. This is because the vast majority of existing methodologies exploit various levels of approximations that lower accuracy and limit the flexibility of kernel and noise-model designs -- an unacceptable drawback at a time when expressive non-stationary kernels are on the rise in many fields. Here, we propose a methodology we term \emph{gp2Scale} that scales exact Gaussian processes to more than 10 million data points without relying on inducing points, kernel interpolation, or neighborhood-based approximations, and instead leveraging the existing capabilities of a GP: its kernel design. Highly flexible, compactly supported, and non-stationary kernels lead to the identification of naturally occurring sparse structure in the covariance matrix, which is then exploited for the calculations of the linear system solution and the log-determinant for training. We demonstrate our method's functionality on several real-world datasets and compare it with state-of-the-art approximation algorithms. Although we show superior approximation performance in many cases, the method's real power lies in its agnosticism toward arbitrary GP customizations -- core kernel design, noise, and mean functions -- and the type of input space, making it optimally suited for modern Gaussian process applications.
- Abstract(参考訳): ガウス過程のスケールアップに関する最近の多くの研究にもかかわらず、計算速度、予測と不確かさの定量化精度、カスタマイズ性の間の頑固なトレードオフが続いている。
これは、既存の方法論の大多数が、カーネルとノイズモデルの設計の柔軟性を低下させ、柔軟性を制限する様々なレベルの近似を利用するためである。
本稿では,正確なガウス過程を1000万以上のデータポイントにスケールする手法を提案する。
高フレキシブルでコンパクトで非定常なカーネルは、共分散行列において自然に生じるスパース構造を同定し、線形系解と対数行列の計算に利用される。
いくつかの実世界のデータセットで本手法の機能を実証し、最先端の近似アルゴリズムと比較する。
多くのケースにおいて優れた近似性能を示すが、この手法の真の力は、任意のGPカスタマイズ(コアカーネル設計、ノイズ、平均関数)と入力空間のタイプに対する非依存性にあり、現代のガウスプロセスアプリケーションに最適である。
関連論文リスト
- A Framework for Nonstationary Gaussian Processes with Neural Network Parameters [0.8057006406834466]
本稿では,パラメータが特徴空間によって異なる非定常カーネルを用いて,これらのパラメータをニューラルネットワークの出力としてモデル化するフレームワークを提案する。
提案手法は,非定常パラメータの挙動を明確に記述し,大規模データセットへのスケーリングのための近似手法と互換性がある。
いくつかの機械学習データセット上で,本手法の非定常変動と雑音変動を検証した結果,定常モデルと階層モデルの両方に近似して精度とログスコアが得られた。
論文 参考訳(メタデータ) (2025-07-16T14:09:49Z) - Compactly-supported nonstationary kernels for computing exact Gaussian processes on big data [3.8836840455173625]
ガウス過程(英: Gaussian process, GP)は、暗黙的な不確実性特徴を持つ機械学習手法である。
従来のGPの実装には、その柔軟性を制限する固定化されたカーネルが含まれる。
スパーシリティと非定常性の両方を発見およびエンコードできる代替カーネルを導出する。
論文 参考訳(メタデータ) (2024-11-07T20:07:21Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Sampling from Gaussian Process Posteriors using Stochastic Gradient
Descent [43.097493761380186]
勾配アルゴリズムは線形系を解くのに有効な方法である。
最適値に収束しない場合であっても,勾配降下は正確な予測を導出することを示す。
実験的に、勾配降下は十分に大規模または不条件の回帰タスクにおいて最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-06-20T15:07:37Z) - Numerically Stable Sparse Gaussian Processes via Minimum Separation
using Cover Trees [57.67528738886731]
誘導点に基づくスケーラブルスパース近似の数値安定性について検討する。
地理空間モデリングなどの低次元タスクに対しては,これらの条件を満たす点を自動計算する手法を提案する。
論文 参考訳(メタデータ) (2022-10-14T15:20:17Z) - Local Random Feature Approximations of the Gaussian Kernel [14.230653042112834]
本稿では,一般的なガウスカーネルと,ランダムな特徴近似を用いてカーネルベースモデルを線形化する手法に着目する。
このような手法は、高周波データをモデル化する際、悪い結果をもたらすことを示すとともに、カーネル近似と下流性能を大幅に改善する新たなローカライズ手法を提案する。
論文 参考訳(メタデータ) (2022-04-12T09:52:36Z) - Gaussian Processes and Statistical Decision-making in Non-Euclidean
Spaces [96.53463532832939]
我々はガウス過程の適用性を高める技術を開発した。
この観点から構築した効率的な近似を幅広く導入する。
非ユークリッド空間上のガウス過程モデルの集合を開発する。
論文 参考訳(メタデータ) (2022-02-22T01:42:57Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。