論文の概要: Marginalising over Stationary Kernels with Bayesian Quadrature
- arxiv url: http://arxiv.org/abs/2106.07452v1
- Date: Mon, 14 Jun 2021 14:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:26:19.546918
- Title: Marginalising over Stationary Kernels with Bayesian Quadrature
- Title(参考訳): ベイズ四面体を用いた定常カーネル上のMarginalising
- Authors: Saad Hamid, Sebastian Schulze, Michael A. Osborne, Stephen J. Roberts
- Abstract要約: ガウス過程核の族上のMarginalisingは、よく校正された不確実性推定を持つ柔軟なモデルクラスを生成する。
本稿では, この限界化をより効率的に, より実用的なものにするためのベイズ四分法を提案する。
- 参考スコア(独自算出の注目度): 36.456528055624766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Marginalising over families of Gaussian Process kernels produces flexible
model classes with well-calibrated uncertainty estimates. Existing approaches
require likelihood evaluations of many kernels, rendering them prohibitively
expensive for larger datasets. We propose a Bayesian Quadrature scheme to make
this marginalisation more efficient and thereby more practical. Through use of
the maximum mean discrepancies between distributions, we define a kernel over
kernels that captures invariances between Spectral Mixture (SM) Kernels. Kernel
samples are selected by generalising an information-theoretic acquisition
function for warped Bayesian Quadrature. We show that our framework achieves
more accurate predictions with better calibrated uncertainty than
state-of-the-art baselines, especially when given limited (wall-clock) time
budgets.
- Abstract(参考訳): ガウス過程カーネルの族に対するマージンは、十分な不確実性推定を持つ柔軟なモデルクラスを生成する。
既存のアプローチでは、多くのカーネルを潜在的に評価する必要がある。
本稿では,この限界化をより効率的かつ実用的なベイズ二次スキームを提案する。
分布間の平均誤差を最大化することにより、スペクトル混合(SM)カーネル間の不変性を捉えるカーネル上のカーネルを定義する。
歪ベイズ二次の情報理論的取得関数を一般化して、カーネルサンプルを選択する。
我々は,最先端のベースラインよりも校正の不確実性が向上し,より正確な予測を実現することを実証する。
関連論文リスト
- A Unifying Perspective on Non-Stationary Kernels for Deeper Gaussian Processes [0.9558392439655016]
代表データセットを用いて動作中のさまざまなカーネルを示し、その特性を慎重に研究し、性能を比較する。
そこで本研究では,既存のカーネルの利点を活かしたカーネルを提案する。
論文 参考訳(メタデータ) (2023-09-18T18:34:51Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Fast Batch Nuclear-norm Maximization and Minimization for Robust Domain
Adaptation [154.2195491708548]
ランダムに選択されたデータバッチの分類出力行列の構造について検討し,予測可能性と多様性について検討した。
本稿では,目標出力行列上で核ノルムを行い,目標予測能力を向上するBatch Nuclear-norm Maximization and Minimizationを提案する。
実験により,本手法は3つの典型的なドメイン適応シナリオにおいて適応精度とロバスト性を高めることができることが示された。
論文 参考訳(メタデータ) (2021-07-13T15:08:32Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Towards Unbiased Random Features with Lower Variance For Stationary
Indefinite Kernels [26.57122949130266]
本アルゴリズムは,既存のカーネル近似法と比較して,より低い分散と近似誤差を達成する。
もともと選択されたカーネルの近似性が向上し、分類精度と回帰能力が向上する。
論文 参考訳(メタデータ) (2021-04-13T13:56:50Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。