論文の概要: High-Dimensional Gaussian Process Regression with Soft Kernel Interpolation
- arxiv url: http://arxiv.org/abs/2410.21419v1
- Date: Mon, 28 Oct 2024 18:13:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:42:29.835185
- Title: High-Dimensional Gaussian Process Regression with Soft Kernel Interpolation
- Title(参考訳): ソフトカーネル補間による高次元ガウス過程回帰
- Authors: Chris Camaño, Daniel Huang,
- Abstract要約: 高次元データセット上でのスケーラブルなプロセス(GP)回帰のために設計されたソフトカーネル補間(SoftKI)を導入する。
構造的補間 (Structured Interpolation, SKI) は, GPカーネルを構造的格子で近似し, より少ない学習点からソフトマックスでカーネルを近似する。
SKI法で使用される格子構造を捨てることにより、SoftKIはデータ次元から近似GPカーネルを形成するコストを分離し、高次元データセットに適している。
- 参考スコア(独自算出の注目度): 0.8057006406834466
- License:
- Abstract: We introduce Soft Kernel Interpolation (SoftKI) designed for scalable Gaussian Process (GP) regression on high-dimensional datasets. Inspired by Structured Kernel Interpolation (SKI), which approximates a GP kernel via interpolation from a structured lattice, SoftKI approximates a kernel via softmax interpolation from a smaller number of learned interpolation (i.e, inducing) points. By abandoning the lattice structure used in SKI-based methods, SoftKI separates the cost of forming an approximate GP kernel from the dimensionality of the data, making it well-suited for high-dimensional datasets. We demonstrate the effectiveness of SoftKI across various examples, and demonstrate that its accuracy exceeds that of other scalable GP methods when the data dimensionality is modest (around $10$).
- Abstract(参考訳): 高次元データセット上でのスケーラブルなガウス過程(GP)回帰のために設計されたソフトカーネル補間(SoftKI)を導入する。
構造化格子からの補間によりGPカーネルを近似する構造化カーネル補間 (Structured Kernel Interpolation, SKI) にインスパイアされたSoftKIは、より少ない数の学習補間(すなわち誘導)ポイントからソフトマックス補間によりカーネルを近似する。
SKI法で使用される格子構造を捨てることにより、SoftKIはデータ次元から近似GPカーネルを形成するコストを分離し、高次元データセットに適している。
様々な事例においてSoftKIの有効性を実証し、データ次元が控えめな場合(約10ドル)に、その精度が他のスケーラブルGPメソッドよりも優れていることを示す。
関連論文リスト
- Large-scale magnetic field maps using structured kernel interpolation
for Gaussian process regression [0.9208007322096532]
そこで本研究では,屋内環境における大規模磁場マップを計算するためのマッピングアルゴリズムを提案する。
シミュレーションでは, マッピング面積が増大する磁場マップにおいて, 現在の最先端手法よりも精度がよいことを示す。
論文 参考訳(メタデータ) (2023-10-25T11:58:18Z) - Interactive Segmentation as Gaussian Process Classification [58.44673380545409]
クリックベースのインタラクティブセグメンテーション(IS)は、ユーザインタラクション下で対象オブジェクトを抽出することを目的としている。
現在のディープラーニング(DL)ベースの手法のほとんどは、主にセマンティックセグメンテーションの一般的なパイプラインに従っている。
本稿では,各画像上でガウス過程(GP)に基づく画素単位のバイナリ分類モデルとしてISタスクを定式化することを提案する。
論文 参考訳(メタデータ) (2023-02-28T14:01:01Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Exact Gaussian Processes for Massive Datasets via Non-Stationary
Sparsity-Discovering Kernels [0.0]
本稿では,カーネルがスパース構造を誘導する代わりに,自然に構造されたスパース性を活用することを提案する。
超フレキシブル、コンパクトサポート、非定常カーネルの原理とHPCと制約付き最適化を組み合わせることで、500万のデータポイントを超える正確なGPをスケールできる。
論文 参考訳(メタデータ) (2022-05-18T16:56:53Z) - Robust Training in High Dimensions via Block Coordinate Geometric Median
Descent [69.47594803719333]
幾何学的中央値 (textGm) は、未破損データのロバストな推定を達成するための統計学における古典的な方法である。
本稿では,テキストscGmを一度に選択した座標ブロックにのみ適用することにより,スムーズな非テキスト問題に対して0.5の分解点を保持することができることを示す。
論文 参考訳(メタデータ) (2021-06-16T15:55:50Z) - SKIing on Simplices: Kernel Interpolation on the Permutohedral Lattice
for Scalable Gaussian Processes [39.821400341226315]
構造化カーネル補間(SKI)フレームワークは、グリッド上で効率的な行列ベクトル乗算(MVM)を行うために使用される。
我々は,SKIと多面体格子を高次元高速二元フィルタで接続する手法を開発した。
密度の大きい矩形格子の代わりにスパースsimplicial gridを用いることで、SKIよりも指数関数的に高速にGP推論を行うことができる。
また,MVMに基づく推論の大幅な高速化を可能にするSimplex-GPの実装も提供する。
論文 参考訳(メタデータ) (2021-06-12T06:04:56Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Faster Kernel Interpolation for Gaussian Processes [30.04235162264955]
大規模データセットへのプロセス(GP)回帰のスケーリングにおける重要な課題は、正確な推論がnxnのカーネル行列を必要とすることである。
構造化カーネル(SKI)は最もスケーラブルな方法の一つである。
1つのO(n)時間前計算ステップの後、SKIをO(m log m)に還元できることが示される。
我々は, m と n の広い範囲で実際に高速化を実演し, 1億点を超える3次元気象レーダデータセット上でGP推定に適用した。
論文 参考訳(メタデータ) (2021-01-28T00:09:22Z) - Sparse Gaussian Processes via Parametric Families of Compactly-supported
Kernels [0.6091702876917279]
本稿では,コンパクトなサポートを持つカーネル関数のパラメトリック族を導出する手法を提案する。
この種類のカーネルのパラメータは、最大推定値を用いてデータから学習することができる。
これらの近似は、ターゲットGPから直接描画されたデータをモデル化する際に、正確なモデルに対して最小限の誤差を生じさせることを示す。
論文 参考訳(メタデータ) (2020-06-05T20:44:09Z) - Improved guarantees and a multiple-descent curve for Column Subset
Selection and the Nystr\"om method [76.73096213472897]
我々は,データ行列のスペクトル特性を利用して近似保証を改良する手法を開発した。
我々のアプローチは、特異値減衰の既知の速度を持つデータセットのバウンダリが大幅に向上する。
RBFパラメータを変更すれば,改良された境界線と多重発振曲線の両方を実データセット上で観測できることが示される。
論文 参考訳(メタデータ) (2020-02-21T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。