論文の概要: The Kernel Manifold: A Geometric Approach to Gaussian Process Model Selection
- arxiv url: http://arxiv.org/abs/2601.05371v1
- Date: Thu, 08 Jan 2026 20:52:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.76603
- Title: The Kernel Manifold: A Geometric Approach to Gaussian Process Model Selection
- Title(参考訳): カーネル多様体:ガウス過程モデル選択のための幾何学的アプローチ
- Authors: Md Shafiqul Islam, Shakti Prasad Padhy, Douglas Allaire, Raymundo Arróyave,
- Abstract要約: カーネル・オブ・カーネルズ幾何に基づくベイズ最適化フレームワークを提案する。
多次元スケーリング(MDS)埋め込みは、離散カーネルライブラリを連続ユークリッド多様体にマッピングし、滑らかなBOを可能にする。
提案手法は, 合成ベンチマーク, 実世界の時系列データセット, 追加的な製造ケーススタディである。
- 参考スコア(独自算出の注目度): 0.8536502059643899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian Process (GP) regression is a powerful nonparametric Bayesian framework, but its performance depends critically on the choice of covariance kernel. Selecting an appropriate kernel is therefore central to model quality, yet remains one of the most challenging and computationally expensive steps in probabilistic modeling. We present a Bayesian optimization framework built on kernel-of-kernels geometry, using expected divergence-based distances between GP priors to explore kernel space efficiently. A multidimensional scaling (MDS) embedding of this distance matrix maps a discrete kernel library into a continuous Euclidean manifold, enabling smooth BO. In this formulation, the input space comprises kernel compositions, the objective is the log marginal likelihood, and featurization is given by the MDS coordinates. When the divergence yields a valid metric, the embedding preserves geometry and produces a stable BO landscape. We demonstrate the approach on synthetic benchmarks, real-world time-series datasets, and an additive manufacturing case study predicting melt-pool geometry, achieving superior predictive accuracy and uncertainty calibration relative to baselines including Large Language Model (LLM)-guided search. This framework establishes a reusable probabilistic geometry for kernel search, with direct relevance to GP modeling and deep kernel learning.
- Abstract(参考訳): ガウス過程(GP)回帰は強力な非パラメトリックベイズフレームワークであるが、その性能は共分散カーネルの選択に大きく依存する。
したがって、適切なカーネルを選択することはモデルの品質の中心であるが、確率的モデリングにおいて最も困難で計算的に高価なステップの1つである。
本稿では,カーネル・オブ・カーネルの幾何学に基づくベイズ最適化フレームワークを提案する。
この距離行列の多次元スケーリング(MDS)埋め込みは、離散核ライブラリを連続ユークリッド多様体に写像し、滑らかなBOを可能にする。
この定式化において、入力空間はカーネル合成を含み、目的はログの辺縁確率であり、MDS座標によって成果化が与えられる。
発散が有効な計量を得るとき、埋め込みは幾何を保存し、安定したBOの風景を生成する。
本研究では,大規模言語モデル(LLM)誘導探索を含むベースラインに対する予測精度と不確実性を向上し,合成ベンチマーク,実世界の時系列データセット,メルトプール形状を予測する付加的な製造ケーススタディについて示す。
このフレームワークは、GPモデリングとディープカーネル学習に直接関連して、カーネル探索のための再利用可能な確率幾何学を確立する。
関連論文リスト
- Scalable Gaussian Processes with Low-Rank Deep Kernel Decomposition [7.532273334759435]
カーネルはガウス過程(GP)モデルにおいて、事前の信念とデータ構造を符号化する鍵である。
ディープカーネル学習は、標準的なパラメトリック形式を適用する前に、ニューラルネットワークを介して入力を入力することで、カーネルの柔軟性を向上させる。
我々は、ニューラルネットワークが直接低ランクカーネルを表現する、完全にデータ駆動でスケーラブルなディープカーネル表現を導入する。
論文 参考訳(メタデータ) (2025-05-24T05:42:11Z) - Weighted Euclidean Distance Matrices over Mixed Continuous and Categorical Inputs for Gaussian Process Models [1.22995445255292]
Weighted Euclidean distance matrices Gaussian Process (WEGP)を紹介する。
この入力のすべてのカテゴリ選択の中からユークリッド距離行列(EDM)を推定することにより、各カテゴリ入力に対するカーネル関数を構築する。
我々は,合成および実世界の最適化問題において,優れた性能を実現する。
論文 参考訳(メタデータ) (2025-03-04T13:55:22Z) - MIK: Modified Isolation Kernel for Biological Sequence Visualization, Classification, and Clustering [3.9146761527401424]
本研究は,ガウスカーネルの代替として,改良分離カーネル (MIK) と呼ばれる新しいアプローチを提案する。
MIKは適応密度推定を用いて局所構造をより正確に捉え、ロバストネス対策を統合する。
局所的および大域的な構造の保存を改善し、組込み空間におけるクラスタとサブクラスタのより良い可視化を可能にする。
論文 参考訳(メタデータ) (2024-10-21T06:57:09Z) - Numerically Stable Sparse Gaussian Processes via Minimum Separation
using Cover Trees [57.67528738886731]
誘導点に基づくスケーラブルスパース近似の数値安定性について検討する。
地理空間モデリングなどの低次元タスクに対しては,これらの条件を満たす点を自動計算する手法を提案する。
論文 参考訳(メタデータ) (2022-10-14T15:20:17Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Sparse Gaussian Processes via Parametric Families of Compactly-supported
Kernels [0.6091702876917279]
本稿では,コンパクトなサポートを持つカーネル関数のパラメトリック族を導出する手法を提案する。
この種類のカーネルのパラメータは、最大推定値を用いてデータから学習することができる。
これらの近似は、ターゲットGPから直接描画されたデータをモデル化する際に、正確なモデルに対して最小限の誤差を生じさせることを示す。
論文 参考訳(メタデータ) (2020-06-05T20:44:09Z) - Linear-time inference for Gaussian Processes on one dimension [17.77516394591124]
本研究では,その線形スケーリング計算コストから,状態空間モデルが人気である1次元のサンプルデータについて検討する。
状態空間モデルは一般であり、任意の1次元ガウス過程を近似できるという予想の最初の一般的な証明を提供する。
LEGモデルで推論と学習を行う並列アルゴリズムを開発し、実データおよび合成データ上でアルゴリズムをテストし、数十億のサンプルを持つデータセットへのスケーリングを実証する。
論文 参考訳(メタデータ) (2020-03-11T23:20:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。