論文の概要: Generalized Variational Inference in Function Spaces: Gaussian Measures
meet Bayesian Deep Learning
- arxiv url: http://arxiv.org/abs/2205.06342v1
- Date: Thu, 12 May 2022 20:10:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 01:33:12.522857
- Title: Generalized Variational Inference in Function Spaces: Gaussian Measures
meet Bayesian Deep Learning
- Title(参考訳): 関数空間における一般化変分推論--ガウス測度とベイズ深層学習
- Authors: Veit D. Wild, Robert Hu, Dino Sejdinovic
- Abstract要約: 無限次元関数空間における一般化変分推論の枠組みを開発する。
我々はこれをガウス・ワッサーシュタイン推論(GWI)と呼ばれる方法を構築するために利用する。
GWIのエキサイティングな応用は、GWIの変分パラメトリションにおいてディープニューラルネットワークを使用する能力である。
- 参考スコア(独自算出の注目度): 9.106412307976067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a framework for generalized variational inference in
infinite-dimensional function spaces and use it to construct a method termed
Gaussian Wasserstein inference (GWI). GWI leverages the Wasserstein distance
between Gaussian measures on the Hilbert space of square-integrable functions
in order to determine a variational posterior using a tractable optimisation
criterion and avoids pathologies arising in standard variational function space
inference. An exciting application of GWI is the ability to use deep neural
networks in the variational parametrisation of GWI, combining their superior
predictive performance with the principled uncertainty quantification analogous
to that of Gaussian processes. The proposed method obtains state-of-the-art
performance on several benchmark datasets.
- Abstract(参考訳): 無限次元関数空間における一般化変分推論の枠組みを開発し、それをガウス・ワッサーシュタイン推論(GWI)と呼ばれる方法を構築する。
gwi は二乗可積分函数のヒルベルト空間上のガウス測度間のワッサーシュタイン距離を利用して、可搬最適化基準を用いて変分後点を判定し、標準変分関数空間推論で生じる病理を回避している。
GWIのエキサイティングな応用は、GWIの変分パラメトリションにおいてディープニューラルネットワークを使用する能力であり、その優れた予測性能とガウス過程に類似した原理化された不確実性定量化を組み合わせたものである。
提案手法は,複数のベンチマークデータセット上での最先端性能を得る。
関連論文リスト
- Fully Bayesian Differential Gaussian Processes through Stochastic Differential Equations [7.439555720106548]
本稿では、カーネルハイパーパラメータを確率変数として扱い、結合微分方程式(SDE)を構築して、その後部分布と誘導点を学習する完全ベイズ的手法を提案する。
提案手法は,SDE法による結合変数による時間変化,包括的,現実的な後部近似を提供する。
我々の研究はベイズ的推論を推し進めるためのエキサイティングな研究の道を開き、継続的なガウス的プロセスのための強力なモデリングツールを提供する。
論文 参考訳(メタデータ) (2024-08-12T11:41:07Z) - On the Computation of the Gaussian Rate-Distortion-Perception Function [10.564071872770146]
平均二乗誤差(MSE)歪み下における多変量ガウス音源に対するレート歪み知覚関数(RDPF)の計算について検討した。
我々は、関連するアルゴリズムの実現、および収束と収束のキャラクタリゼーションの速度を提供する。
計算結果を数値シミュレーションで相関させ,既存の結果に関連付ける。
論文 参考訳(メタデータ) (2023-11-15T18:34:03Z) - Interacting Particle Langevin Algorithm for Maximum Marginal Likelihood
Estimation [2.53740603524637]
我々は,最大限界推定法を実装するための相互作用粒子系のクラスを開発する。
特に、この拡散の定常測度のパラメータ境界がギブス測度の形式であることを示す。
特定の再スケーリングを用いて、このシステムの幾何学的エルゴディディティを証明し、離散化誤差を限定する。
時間的に一様で、粒子の数で増加しない方法で。
論文 参考訳(メタデータ) (2023-03-23T16:50:08Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - Kullback-Leibler and Renyi divergences in reproducing kernel Hilbert
space and Gaussian process settings [0.0]
正規化Kullback-LeiblerとR'enyiの発散をAlpha Log-Det(Log-Det)発散により定式化する。
特徴的核について、最初の設定は、完全可分な距離空間上の任意のボレル確率測度の間の分岐をもたらす。
我々は、Alpha Log-Detの発散がヒルベルト-シュミットノルムにおいて連続であることを示し、ヒルベルト空間値の確率変数に対して大数の法則を適用することができる。
論文 参考訳(メタデータ) (2022-07-18T06:40:46Z) - Experimental Design for Linear Functionals in Reproducing Kernel Hilbert
Spaces [102.08678737900541]
線形汎関数に対するバイアス認識設計のためのアルゴリズムを提供する。
準ガウス雑音下での固定および適応設計に対する漸近的でない信頼集合を導出する。
論文 参考訳(メタデータ) (2022-05-26T20:56:25Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Variational Inference as Iterative Projection in a Bayesian Hilbert
Space with Application to Robotic State Estimation [14.670851095242451]
変分ベイズ推論は統計学からロボット工学への応用を見つける重要な機械学習ツールである。
KLの発散に基づく変分推論は、ユークリッドの意味では、選択された近似族に対応する部分空間へのベイズ後方の反復射影に等しいことを示す。
論文 参考訳(メタデータ) (2020-05-14T21:33:31Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。