論文の概要: High-Dimensional Gaussian Process Regression with Soft Kernel Interpolation
- arxiv url: http://arxiv.org/abs/2410.21419v2
- Date: Sat, 10 May 2025 01:41:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 14:13:12.485774
- Title: High-Dimensional Gaussian Process Regression with Soft Kernel Interpolation
- Title(参考訳): ソフトカーネル補間による高次元ガウス過程回帰
- Authors: Chris Camaño, Daniel Huang,
- Abstract要約: 構造化カーネル補間(SKI)と変分誘導点法を組み合わせたソフトカーネル補間(SoftKI)を導入する。
SoftKIは、学習した少数のポイントから、ソフトマックスを介してカーネルを近似する。
様々な事例においてSoftKIの有効性を実証し、データ次元が穏やかな場合、他の近似GP手法と競合することを示す。
- 参考スコア(独自算出の注目度): 0.8057006406834466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Soft Kernel Interpolation (SoftKI), a method that combines aspects of Structured Kernel Interpolation (SKI) and variational inducing point methods, to achieve scalable Gaussian Process (GP) regression on high-dimensional datasets. SoftKI approximates a kernel via softmax interpolation from a smaller number of interpolation points learned by optimizing a combination of the SoftKI marginal log-likelihood (MLL), and when needed, an approximate MLL for improved numerical stability. Consequently, it can overcome the dimensionality scaling challenges that SKI faces when interpolating from a dense and static lattice while retaining the flexibility of variational methods to adapt inducing points to the dataset. We demonstrate the effectiveness of SoftKI across various examples and show that it is competitive with other approximated GP methods when the data dimensionality is modest (around 10).
- Abstract(参考訳): 我々は、構造化カーネル補間(SKI)と変分誘導点法を組み合わせたソフトカーネル補間(SoftKI)を導入し、高次元データセット上でスケーラブルなガウス過程(GP)回帰を実現する。
SoftKIは、より少ない数の補間点からのソフトマックス補間によりカーネルを近似し、SoftKI境界対数類似度(MLL)の組み合わせを最適化し、必要であれば、数値安定性を向上させるための近似MLLを生成する。
これにより、SKIが高密度で静的な格子から補間する際に直面する次元スケーリングの課題を克服し、データセットに点を誘導する変動手法の柔軟性を維持することができる。
様々な事例においてSoftKIの有効性を実証し,データ次元が穏やかな場合(約10)に他の近似GP手法と競合することを示す。
関連論文リスト
- Large-scale magnetic field maps using structured kernel interpolation
for Gaussian process regression [0.9208007322096532]
そこで本研究では,屋内環境における大規模磁場マップを計算するためのマッピングアルゴリズムを提案する。
シミュレーションでは, マッピング面積が増大する磁場マップにおいて, 現在の最先端手法よりも精度がよいことを示す。
論文 参考訳(メタデータ) (2023-10-25T11:58:18Z) - Interactive Segmentation as Gaussian Process Classification [58.44673380545409]
クリックベースのインタラクティブセグメンテーション(IS)は、ユーザインタラクション下で対象オブジェクトを抽出することを目的としている。
現在のディープラーニング(DL)ベースの手法のほとんどは、主にセマンティックセグメンテーションの一般的なパイプラインに従っている。
本稿では,各画像上でガウス過程(GP)に基づく画素単位のバイナリ分類モデルとしてISタスクを定式化することを提案する。
論文 参考訳(メタデータ) (2023-02-28T14:01:01Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Exact Gaussian Processes for Massive Datasets via Non-Stationary
Sparsity-Discovering Kernels [0.0]
本稿では,カーネルがスパース構造を誘導する代わりに,自然に構造されたスパース性を活用することを提案する。
超フレキシブル、コンパクトサポート、非定常カーネルの原理とHPCと制約付き最適化を組み合わせることで、500万のデータポイントを超える正確なGPをスケールできる。
論文 参考訳(メタデータ) (2022-05-18T16:56:53Z) - Robust Training in High Dimensions via Block Coordinate Geometric Median
Descent [69.47594803719333]
幾何学的中央値 (textGm) は、未破損データのロバストな推定を達成するための統計学における古典的な方法である。
本稿では,テキストscGmを一度に選択した座標ブロックにのみ適用することにより,スムーズな非テキスト問題に対して0.5の分解点を保持することができることを示す。
論文 参考訳(メタデータ) (2021-06-16T15:55:50Z) - SKIing on Simplices: Kernel Interpolation on the Permutohedral Lattice
for Scalable Gaussian Processes [39.821400341226315]
構造化カーネル補間(SKI)フレームワークは、グリッド上で効率的な行列ベクトル乗算(MVM)を行うために使用される。
我々は,SKIと多面体格子を高次元高速二元フィルタで接続する手法を開発した。
密度の大きい矩形格子の代わりにスパースsimplicial gridを用いることで、SKIよりも指数関数的に高速にGP推論を行うことができる。
また,MVMに基づく推論の大幅な高速化を可能にするSimplex-GPの実装も提供する。
論文 参考訳(メタデータ) (2021-06-12T06:04:56Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Faster Kernel Interpolation for Gaussian Processes [30.04235162264955]
大規模データセットへのプロセス(GP)回帰のスケーリングにおける重要な課題は、正確な推論がnxnのカーネル行列を必要とすることである。
構造化カーネル(SKI)は最もスケーラブルな方法の一つである。
1つのO(n)時間前計算ステップの後、SKIをO(m log m)に還元できることが示される。
我々は, m と n の広い範囲で実際に高速化を実演し, 1億点を超える3次元気象レーダデータセット上でGP推定に適用した。
論文 参考訳(メタデータ) (2021-01-28T00:09:22Z) - Sparse Gaussian Processes via Parametric Families of Compactly-supported
Kernels [0.6091702876917279]
本稿では,コンパクトなサポートを持つカーネル関数のパラメトリック族を導出する手法を提案する。
この種類のカーネルのパラメータは、最大推定値を用いてデータから学習することができる。
これらの近似は、ターゲットGPから直接描画されたデータをモデル化する際に、正確なモデルに対して最小限の誤差を生じさせることを示す。
論文 参考訳(メタデータ) (2020-06-05T20:44:09Z) - Improved guarantees and a multiple-descent curve for Column Subset
Selection and the Nystr\"om method [76.73096213472897]
我々は,データ行列のスペクトル特性を利用して近似保証を改良する手法を開発した。
我々のアプローチは、特異値減衰の既知の速度を持つデータセットのバウンダリが大幅に向上する。
RBFパラメータを変更すれば,改良された境界線と多重発振曲線の両方を実データセット上で観測できることが示される。
論文 参考訳(メタデータ) (2020-02-21T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。