論文の概要: A Unifying Perspective on Non-Stationary Kernels for Deeper Gaussian Processes
- arxiv url: http://arxiv.org/abs/2309.10068v2
- Date: Mon, 30 Sep 2024 22:31:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-02 16:33:13.777097
- Title: A Unifying Perspective on Non-Stationary Kernels for Deeper Gaussian Processes
- Title(参考訳): より深いガウス過程のための非定常カーネルの統一的視点
- Authors: Marcus M. Noack, Hengrui Luo, Mark D. Risser,
- Abstract要約: 代表データセットを用いて動作中のさまざまなカーネルを示し、その特性を慎重に研究し、性能を比較する。
そこで本研究では,既存のカーネルの利点を活かしたカーネルを提案する。
- 参考スコア(独自算出の注目度): 0.9558392439655016
- License:
- Abstract: The Gaussian process (GP) is a popular statistical technique for stochastic function approximation and uncertainty quantification from data. GPs have been adopted into the realm of machine learning in the last two decades because of their superior prediction abilities, especially in data-sparse scenarios, and their inherent ability to provide robust uncertainty estimates. Even so, their performance highly depends on intricate customizations of the core methodology, which often leads to dissatisfaction among practitioners when standard setups and off-the-shelf software tools are being deployed. Arguably the most important building block of a GP is the kernel function which assumes the role of a covariance operator. Stationary kernels of the Mat\'ern class are used in the vast majority of applied studies; poor prediction performance and unrealistic uncertainty quantification are often the consequences. Non-stationary kernels show improved performance but are rarely used due to their more complicated functional form and the associated effort and expertise needed to define and tune them optimally. In this perspective, we want to help ML practitioners make sense of some of the most common forms of non-stationarity for Gaussian processes. We show a variety of kernels in action using representative datasets, carefully study their properties, and compare their performances. Based on our findings, we propose a new kernel that combines some of the identified advantages of existing kernels.
- Abstract(参考訳): ガウス過程(英: Gaussian process, GP)は、確率関数近似とデータの不確実性定量化のための一般的な統計手法である。
GPは、特にデータスパースシナリオにおいて優れた予測能力と、堅牢な不確実性推定を提供する固有の能力のために、過去20年間、機械学習の領域に採用されてきた。
それでも、彼らのパフォーマンスはコア方法論の複雑なカスタマイズに大きく依存しており、標準設定や既定のソフトウェアツールがデプロイされている場合、実践者の間で不満を招きます。
おそらくGPの最も重要な構成要素は、共分散作用素の役割を仮定するカーネル関数である。
Mat\'ern クラスの定常カーネルは、ほとんどの応用研究で使われており、予測性能の低さと非現実的な不確実性定量化は、しばしば結果である。
非定常カーネルは性能が向上するが、より複雑な機能形式とそれを定義するのに必要な関連する努力と専門知識のために使われることは滅多にない。
この観点から、私たちはML実践者がガウス過程の最も一般的な非定常性を理解する手助けをしたいと考えています。
代表データセットを用いて動作中のさまざまなカーネルを示し、その特性を慎重に研究し、性能を比較する。
そこで本研究では,既存のカーネルの利点を活かしたカーネルを提案する。
関連論文リスト
- Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Correlated Product of Experts for Sparse Gaussian Process Regression [2.466065249430993]
そこで本研究では,複数の地域および関連専門家からの予測の集約に基づく新しいアプローチを提案する。
本手法は, 独立系エキスパート製品, スパースGP, フルGPを限定例で回収する。
提案手法は,最先端GP近似法に対して,時間対精度で優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-17T14:14:08Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Marginalising over Stationary Kernels with Bayesian Quadrature [36.456528055624766]
ガウス過程核の族上のMarginalisingは、よく校正された不確実性推定を持つ柔軟なモデルクラスを生成する。
本稿では, この限界化をより効率的に, より実用的なものにするためのベイズ四分法を提案する。
論文 参考訳(メタデータ) (2021-06-14T14:23:34Z) - Advanced Stationary and Non-Stationary Kernel Designs for Domain-Aware
Gaussian Processes [0.0]
再生カーネルヒルベルト空間(RKHS)の要素である所望の特性を持つ関数のみを許容する先進カーネル設計を提案する。
いくつかの合成および2つの科学的データセットを用いて、先進的なカーネル設計がガウス過程に与える影響を示す。
論文 参考訳(メタデータ) (2021-02-05T22:07:56Z) - Low-dimensional Interpretable Kernels with Conic Discriminant Functions
for Classification [0.0]
カーネルはしばしば、その高次元の特徴空間表現による印象的な予測力を示す暗黙のマッピング関数として開発される。
本研究では,解釈可能な低次元カーネルの集合に繋がる,一連の単純な特徴写像を徐々に構築する。
論文 参考訳(メタデータ) (2020-07-17T13:58:54Z) - Uncertainty quantification using martingales for misspecified Gaussian
processes [52.22233158357913]
本稿では,ガウス過程(GP)の不確定な定量化を,不特定先行条件下で解決する。
マルティンゲール法を用いて未知関数に対する信頼シーケンス(CS)を構築する。
我々のCSは統計的に有効であり、実証的に標準GP法より優れています。
論文 参考訳(メタデータ) (2020-06-12T17:58:59Z) - Sequential Gaussian Processes for Online Learning of Nonstationary
Functions [9.997259201098602]
連続モンテカルロアルゴリズムは,オンラインの分散推論を可能としながら,非定常挙動を捉えたGPの無限混合に適合する。
提案手法は,時系列データにおける非定常性の存在下でのオンラインGP推定における最先端手法の性能を実証的に改善する。
論文 参考訳(メタデータ) (2019-05-24T02:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。