論文の概要: Optimal Kernel Learning for Gaussian Process Models with High-Dimensional Input
- arxiv url: http://arxiv.org/abs/2502.16617v1
- Date: Sun, 23 Feb 2025 15:39:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:56:35.252015
- Title: Optimal Kernel Learning for Gaussian Process Models with High-Dimensional Input
- Title(参考訳): 高次元入力を持つガウス過程モデルに対する最適カーネル学習
- Authors: Lulu Kang, Minshen Xu,
- Abstract要約: 一部のシミュレーションモデルでは、出力は入力変数の小さな部分集合(能動変数と呼ばれる)によってのみ大きく影響される。
そこで本研究では,これらの能動変数を同定し,GPモデルの限界を克服し,システム理解を向上させるためのカーネル学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Gaussian process (GP) regression is a popular surrogate modeling tool for computer simulations in engineering and scientific domains. However, it often struggles with high computational costs and low prediction accuracy when the simulation involves too many input variables. For some simulation models, the outputs may only be significantly influenced by a small subset of the input variables, referred to as the ``active variables''. We propose an optimal kernel learning approach to identify these active variables, thereby overcoming GP model limitations and enhancing system understanding. Our method approximates the original GP model's covariance function through a convex combination of kernel functions, each utilizing low-dimensional subsets of input variables. Inspired by the Fedorov-Wynn algorithm from optimal design literature, we develop an optimal kernel learning algorithm to determine this approximation. We incorporate the effect heredity principle, a concept borrowed from the field of ``design and analysis of experiments'', to ensure sparsity in active variable selection. Through several examples, we demonstrate that the proposed method outperforms alternative approaches in correctly identifying active input variables and improving prediction accuracy. It is an effective solution for interpreting the surrogate GP regression and simplifying the complex underlying system.
- Abstract(参考訳): ガウス過程(GP)回帰(英: Gaussian process)は、工学と科学の分野における計算機シミュレーションのための一般的な代理モデリングツールである。
しかし、シミュレーションがあまりに多くの入力変数を必要とする場合、高い計算コストと低い予測精度に悩まされることが多い。
一部のシミュレーションモデルでは、出力は ``active variables'' と呼ばれる入力変数の小さな部分集合によってのみ大きく影響される。
そこで本研究では,これらの能動変数を同定し,GPモデルの限界を克服し,システム理解を向上させるためのカーネル学習手法を提案する。
提案手法は,入力変数の低次元部分集合を利用するカーネル関数の凸結合により,元のGPモデルの共分散関数を近似する。
最適設計文献からFedorov-Wynnアルゴリズムにインスパイアされた我々は、この近似を決定するための最適なカーネル学習アルゴリズムを開発した。
我々は,「実験の設計と分析」の分野から借用された概念であるエフェクト・ジェレディティの原理を取り入れ,有効変数選択における疎性を確保する。
いくつかの例を通して、提案手法は、アクティブな入力変数を正しく同定し、予測精度を向上させるための代替手法よりも優れていることを示す。
これは、代用GP回帰を解釈し、複雑な基盤系を単純化する効果的な解である。
関連論文リスト
- Multi-view Bayesian optimisation in reduced dimension for engineering design [0.9626666671366836]
目的あるいは制約関数を表す入力設計変数と出力データの両方を考慮した多視点学習戦略を導入する。
確率的最小二乗(PPLS)を用いて,設計変数から潜伏変数への直交写像を学習する。
提案した確率論的最小二乗ベイズ最適化(PPLS-BO)戦略を,その決定論的手法,部分最小二乗ベイズ最適化(PLS-BO)および古典的ベイズ最適化と比較した。
論文 参考訳(メタデータ) (2025-01-02T22:03:00Z) - Polynomial Chaos Expanded Gaussian Process [2.287415292857564]
複雑で未知のプロセスでは、大域的モデルは最初実験空間全体にわたって生成される。
本研究では,グローバルな実験空間とローカルな実験空間の両方を効果的に表現するモデルの必要性に対処する。
論文 参考訳(メタデータ) (2024-05-02T07:11:05Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - FAStEN: An Efficient Adaptive Method for Feature Selection and Estimation in High-Dimensional Functional Regressions [7.674715791336311]
本稿では,スパース関数オン・ファンクション回帰問題において特徴選択を行うための,新しい,柔軟な,超効率的なアプローチを提案する。
我々はそれをスカラー・オン・ファンクション・フレームワークに拡張する方法を示す。
AOMIC PIOP1による脳MRIデータへの応用について述べる。
論文 参考訳(メタデータ) (2023-03-26T19:41:17Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Harnessing Heterogeneity: Learning from Decomposed Feedback in Bayesian
Modeling [68.69431580852535]
サブグループフィードバックを取り入れた新しいGPレグレッションを導入する。
我々の修正された回帰は、以前のアプローチと比べて、明らかにばらつきを減らし、したがってより正確な後続を減らした。
我々は2つの異なる社会問題に対してアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-07-07T03:57:22Z) - Gaussian Process Latent Class Choice Models [7.992550355579791]
離散選択モデル(DCM)における確率的機械学習の非パラメトリッククラスを提案する。
提案モデルでは,GPを用いた行動同質クラスタ(ラテントクラス)に確率的に個人を割り当てる。
モデルは2つの異なるモード選択アプリケーションでテストされ、異なるLCCMベンチマークと比較される。
論文 参考訳(メタデータ) (2021-01-28T19:56:42Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Scaled Vecchia approximation for fast computer-model emulation [0.6445605125467573]
我々は,大規模計算機実験のスケーラブルな解析とエミュレーションを可能にするために,空間統計学から強力なGP手法を適応・拡張する。
提案手法はスケーラビリティが高く,モデル実行回数のほぼ直線時間における推定,共同予測,シミュレーションを可能にする。
論文 参考訳(メタデータ) (2020-05-01T14:08:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。