論文の概要: Variational Inference as Iterative Projection in a Bayesian Hilbert
Space with Application to Robotic State Estimation
- arxiv url: http://arxiv.org/abs/2005.07275v3
- Date: Mon, 26 Sep 2022 16:33:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:58:18.220908
- Title: Variational Inference as Iterative Projection in a Bayesian Hilbert
Space with Application to Robotic State Estimation
- Title(参考訳): ベイズヒルベルト空間における反復射影としての変分推論とロボット状態推定への応用
- Authors: Timothy D. Barfoot and Gabriele M. T. D'Eleuterio
- Abstract要約: 変分ベイズ推論は統計学からロボット工学への応用を見つける重要な機械学習ツールである。
KLの発散に基づく変分推論は、ユークリッドの意味では、選択された近似族に対応する部分空間へのベイズ後方の反復射影に等しいことを示す。
- 参考スコア(独自算出の注目度): 14.670851095242451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational Bayesian inference is an important machine-learning tool that
finds application from statistics to robotics. The goal is to find an
approximate probability density function (PDF) from a chosen family that is in
some sense 'closest' to the full Bayesian posterior. Closeness is typically
defined through the selection of an appropriate loss functional such as the
Kullback-Leibler (KL) divergence. In this paper, we explore a new formulation
of variational inference by exploiting the fact that (most) PDFs are members of
a Bayesian Hilbert space under careful definitions of vector addition, scalar
multiplication and an inner product. We show that, under the right conditions,
variational inference based on KL divergence can amount to iterative
projection, in the Euclidean sense, of the Bayesian posterior onto a subspace
corresponding to the selected approximation family. We work through the details
of this general framework for the specific case of the Gaussian approximation
family and show the equivalence to another Gaussian variational inference
approach. We furthermore discuss the implications for systems that exhibit
sparsity, which is handled naturally in Bayesian space, and give an example of
a high-dimensional robotic state estimation problem that can be handled as a
result. We provide some preliminary examples of how the approach could be
applied to non-Gaussian inference and discuss the limitations of the approach
in detail to encourage follow-on work along these lines.
- Abstract(参考訳): 変分ベイズ推論は統計学からロボット工学への応用を見つける重要な機械学習ツールである。
目標は、ある意味で「最も近い」選択された族からベイズ後方まで、近似確率密度関数(pdf)を見つけることである。
閉じ度は通常、KL(Kulback-Leibler)の発散のような適切な損失関数の選択によって定義される。
本稿では,ベクター加算,スカラー乗算,内積の注意深い定義の下で,(ほとんど)PDFがベイズヒルベルト空間のメンバーであるという事実を利用して,変分推論の新しい定式化を考察する。
正しい条件下では、klの発散に基づく変分推論は、選択された近似族に対応する部分空間へのベイズ後方のユークリッド的意味での反復射影に等しいことが示されている。
我々は、ガウス近似の特定の場合に対するこの一般的な枠組みの詳細を調べ、別のガウス変分推論のアプローチと等価性を示す。
さらに,ベイジアン空間で自然に処理される空間の疎度を示すシステムについて考察し,その結果として扱える高次元ロボット状態推定問題の例を示す。
我々は、非ガウス的推論にアプローチをどのように適用できるかの予備的な例を示し、これらの線に沿った追従作業を促進するために、アプローチの限界を詳細に議論する。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - von Mises Quasi-Processes for Bayesian Circular Regression [57.88921637944379]
円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
結果の確率モデルは、統計物理学における連続スピンモデルと関係を持つ。
後続推論のために、高速マルコフ連鎖モンテカルロサンプリングに寄与するストラトノビッチのような拡張を導入する。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - Analytical Approximation of the ELBO Gradient in the Context of the Clutter Problem [0.0]
変分推論問題におけるエビデンス下界(ELBO)の勾配を近似する解析解を提案する。
提案手法は線形計算複雑性とともに精度と収束率を示す。
論文 参考訳(メタデータ) (2024-04-16T13:19:46Z) - Intrinsic Bayesian Cramér-Rao Bound with an Application to Covariance Matrix Estimation [49.67011673289242]
本稿では, 推定パラメータが滑らかな多様体内にある推定問題に対して, 新たな性能境界を提案する。
これはパラメータ多様体の幾何学と推定誤差測度の本質的な概念を誘導する。
論文 参考訳(メタデータ) (2023-11-08T15:17:13Z) - Robust probabilistic inference via a constrained transport metric [8.85031165304586]
我々は、パラメトリックな分布の族の近くに集中するように慎重に設計された指数関数的に傾いた経験的確に構築することで、新しい代替手段を提供する。
提案手法は,多種多様なロバストな推論問題に応用し,中心分布に付随するパラメータを推論する。
我々は,最先端の頑健なベイズ推論手法と比較した場合,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-17T16:10:06Z) - Generalized Variational Inference in Function Spaces: Gaussian Measures
meet Bayesian Deep Learning [9.106412307976067]
無限次元関数空間における一般化変分推論の枠組みを開発する。
我々はこれをガウス・ワッサーシュタイン推論(GWI)と呼ばれる方法を構築するために利用する。
GWIのエキサイティングな応用は、GWIの変分パラメトリションにおいてディープニューラルネットワークを使用する能力である。
論文 参考訳(メタデータ) (2022-05-12T20:10:31Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z) - Variational inference with a quantum computer [0.0]
推論(inference)は、関連する変数の観測から、観察されない変数に関する結論を導くタスクである。
確率分布は、観測されていない変数に対する後方分布を近似するために最適化される。
本研究では,離散変数上の変分分布として量子ボーンマシンを提案する。
論文 参考訳(メタデータ) (2021-03-11T15:12:21Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Understanding Variational Inference in Function-Space [20.940162027560408]
この設定で、Kullback-Leiblerの発散を利用する際の利点と制限を強調します。
近似品質を直接測定する関数空間推論手法のベンチマークとしてベイズ線形回帰法を提案する。
論文 参考訳(メタデータ) (2020-11-18T17:42:01Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。