論文の概要: Scalable Gaussian Processes with Latent Kronecker Structure
- arxiv url: http://arxiv.org/abs/2506.06895v1
- Date: Sat, 07 Jun 2025 18:47:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.55313
- Title: Scalable Gaussian Processes with Latent Kronecker Structure
- Title(参考訳): 潜在クロネッカー構造をもつスケーラブルガウス過程
- Authors: Jihao Andreas Lin, Sebastian Ament, Maximilian Balandat, David Eriksson, José Miguel Hernández-Lobato, Eytan Bakshy,
- Abstract要約: クロネッカー積のような行列構造は演算を著しく加速させることができるが、それらの応用は一般に近似や非現実的な仮定を必要とする。
我々は、潜在クロネッカー積の射影として観測値のカーネル行列を表現し、潜在クロネッカー構造を活用することを提案する。
提案手法は,最大500万例の実世界のデータセットにおいて,最先端のスパースと変分GPより優れていることを示す。
- 参考スコア(独自算出の注目度): 40.188778777033086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Applying Gaussian processes (GPs) to very large datasets remains a challenge due to limited computational scalability. Matrix structures, such as the Kronecker product, can accelerate operations significantly, but their application commonly entails approximations or unrealistic assumptions. In particular, the most common path to creating a Kronecker-structured kernel matrix is by evaluating a product kernel on gridded inputs that can be expressed as a Cartesian product. However, this structure is lost if any observation is missing, breaking the Cartesian product structure, which frequently occurs in real-world data such as time series. To address this limitation, we propose leveraging latent Kronecker structure, by expressing the kernel matrix of observed values as the projection of a latent Kronecker product. In combination with iterative linear system solvers and pathwise conditioning, our method facilitates inference of exact GPs while requiring substantially fewer computational resources than standard iterative methods. We demonstrate that our method outperforms state-of-the-art sparse and variational GPs on real-world datasets with up to five million examples, including robotics, automated machine learning, and climate applications.
- Abstract(参考訳): ガウス過程(GP)を非常に大きなデータセットに適用することは、計算スケーラビリティが限られているため、依然として課題である。
クロネッカー積のような行列構造は演算を著しく加速させることができるが、それらの応用は一般に近似や非現実的な仮定を必要とする。
特に、クロネッカー構造化されたカーネル行列を作るための最も一般的な経路は、カルテシアン積として表現できる有界入力上の積核を評価することである。
しかし、この構造が失われると、直列のような実世界のデータで頻繁に発生するモンテネシアの積構造が破壊される。
この制限に対処するために、観測値のカーネル行列を潜在Kronecker積の射影として表現することにより、潜在Kronecker構造を活用することを提案する。
反復線形系解法とパスワイズ条件付けを組み合わせることで,従来の反復法よりも計算資源を著しく少なくしながら,正確なGPの推測を容易にする。
提案手法は,ロボット工学,自動機械学習,気候アプリケーションなど,最大500万例の実世界のデータセットにおいて,最先端のスパースと変分GPよりも優れていることを示す。
関連論文リスト
- Preconditioned Additive Gaussian Processes with Fourier Acceleration [2.292881746604941]
本稿では,カーネル行列とその導関数の乗算において,ほぼ線形な複雑性を実現するための行列フリー手法を提案する。
高次元問題に対処するために,加法的カーネルアプローチを提案する。
各サブカーネルは低次の特徴相互作用をキャプチャし、NFFT法の効率的な適用を可能にする。
論文 参考訳(メタデータ) (2025-04-01T07:14:06Z) - Higher-order topological kernels via quantum computation [68.8204255655161]
トポロジカルデータ分析(TDA)は、複雑なデータから意味のある洞察を抽出する強力なツールとして登場した。
本稿では,ベッチ曲線の次数増加に基づくBettiカーネルの量子的定義法を提案する。
論文 参考訳(メタデータ) (2023-07-14T14:48:52Z) - Reconstructing Kernel-based Machine Learning Force Fields with
Super-linear Convergence [0.18416014644193063]
我々は、プレコンディショナーを構築するためのNystr"om-typeメソッドの幅広いクラスについて考察する。
検討されたすべての方法は、支配的なカーネルスペクトルを近似するために、インジェクション(カーネル)列の代表的なサブセットを特定することを目的としている。
論文 参考訳(メタデータ) (2022-12-24T13:45:50Z) - Linear Self-Attention Approximation via Trainable Feedforward Kernel [77.34726150561087]
高速な計算を追求する中で、効率的なトランスフォーマーは印象的な様々なアプローチを実証している。
我々は,トランスフォーマーアーキテクチャの自己保持機構を近似するために,トレーニング可能なカーネルメソッドのアイデアを拡張することを目指している。
論文 参考訳(メタデータ) (2022-11-08T08:14:11Z) - Automatic and effective discovery of quantum kernels [41.61572387137452]
量子コンピューティングは、カーネルマシンが量子カーネルを利用してデータ間の類似度を表現できるようにすることで、機械学習モデルを強化することができる。
本稿では,ニューラルアーキテクチャ検索やAutoMLと同じような最適化手法を用いて,この問題に対するアプローチを提案する。
その結果、高エネルギー物理問題に対する我々のアプローチを検証した結果、最良のシナリオでは、手動設計のアプローチに関して、テストの精度を一致または改善できることが示された。
論文 参考訳(メタデータ) (2022-09-22T16:42:14Z) - Exact Gaussian Processes for Massive Datasets via Non-Stationary
Sparsity-Discovering Kernels [0.0]
本稿では,カーネルがスパース構造を誘導する代わりに,自然に構造されたスパース性を活用することを提案する。
超フレキシブル、コンパクトサポート、非定常カーネルの原理とHPCと制約付き最適化を組み合わせることで、500万のデータポイントを超える正確なGPをスケールできる。
論文 参考訳(メタデータ) (2022-05-18T16:56:53Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - The Fast Kernel Transform [21.001203328543006]
本稿では,FKT(Fast Kernel Transform:高速カーネル変換)を提案する。
FKT はガウス、マテルン、ラショナル四次共分散関数や物理的に動機付けられたグリーン関数など、幅広い種類のカーネルに容易に適用できる。
本稿では、時間と精度のベンチマークを提供することによりFKTの有効性と汎用性を説明し、それを近隣埋め込み(t-SNE)とガウス過程を大規模実世界のデータセットに拡張する。
論文 参考訳(メタデータ) (2021-06-08T16:15:47Z) - Sparse Gaussian Processes via Parametric Families of Compactly-supported
Kernels [0.6091702876917279]
本稿では,コンパクトなサポートを持つカーネル関数のパラメトリック族を導出する手法を提案する。
この種類のカーネルのパラメータは、最大推定値を用いてデータから学習することができる。
これらの近似は、ターゲットGPから直接描画されたデータをモデル化する際に、正確なモデルに対して最小限の誤差を生じさせることを示す。
論文 参考訳(メタデータ) (2020-06-05T20:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。