論文の概要: Variational Gaussian approximation of the Kushner optimal filter
- arxiv url: http://arxiv.org/abs/2310.01859v1
- Date: Tue, 3 Oct 2023 07:48:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 17:06:51.510745
- Title: Variational Gaussian approximation of the Kushner optimal filter
- Title(参考訳): クシュナー最適フィルタの変分ガウス近似
- Authors: Marc Lambert (DGA, SIERRA), Silv\`ere Bonnabel, Francis Bach (SIERRA)
- Abstract要約: 推定理論において、クシュナー方程式は連続時間観測を与えられた系の確率密度の進化を与える。
そこで我々は, ガウス近似を用いて, クシュナー方程式の解を近似する新しい方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In estimation theory, the Kushner equation provides the evolution of the
probability density of the state of a dynamical system given continuous-time
observations. Building upon our recent work, we propose a new way to
approximate the solution of the Kushner equation through tractable variational
Gaussian approximations of two proximal losses associated with the propagation
and Bayesian update of the probability density. The first is a proximal loss
based on the Wasserstein metric and the second is a proximal loss based on the
Fisher metric. The solution to this last proximal loss is given by implicit
updates on the mean and covariance that we proposed earlier. These two
variational updates can be fused and shown to satisfy a set of stochastic
differential equations on the Gaussian's mean and covariance matrix. This
Gaussian flow is consistent with the Kalman-Bucy and Riccati flows in the
linear case and generalize them in the nonlinear one.
- Abstract(参考訳): 推定理論において、クシュナー方程式は連続時間観測を与えられた力学系の状態の確率密度の進化を与える。
最近の研究に基づいて,確率密度のベイズ的更新と伝播に伴う2つの近位損失のトラクタブル変分ガウス近似を用いて,クシュナー方程式の解を近似する方法を提案する。
1つはワッサーシュタイン計量に基づく近位損失、2つ目はフィッシャー計量に基づく近位損失である。
この最後の近位損失の解決策は、我々が以前に提案した平均と共分散に関する暗黙の更新によって与えられる。
これら2つの変分更新は融合され、ガウス平均と共分散行列上の確率微分方程式の集合を満たすことが示される。
このガウス流は線型の場合のカルマン・ビューシーとリカティの流れと一致し、非線形の場合で一般化する。
関連論文リスト
- A convergent scheme for the Bayesian filtering problem based on the Fokker--Planck equation and deep splitting [0.0]
非線形フィルタリング密度を近似する数値スキームを導入し、収束率を確立する。
予測ステップでは、このスキームはフォッカー・プランク方程式と深い分割スキームを近似し、ベイズの公式を通して正確な更新を行う。
その結果、従来の予測更新フィルタリングアルゴリズムが、トレーニング後の新しい観測シーケンスのためにオンラインで動作している。
論文 参考訳(メタデータ) (2024-09-22T20:25:45Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - TIC-TAC: A Framework for Improved Covariance Estimation in Deep Heteroscedastic Regression [109.69084997173196]
奥行き回帰は、予測分布の平均と共分散を負の対数類似度を用いて共同最適化する。
近年の研究では, 共分散推定に伴う課題により, 準最適収束が生じる可能性が示唆されている。
1)予測共分散は予測平均のランダム性を真に捉えているか?
その結果, TICは共分散を正確に学習するだけでなく, 負の対数類似性の収束性の向上も促進することがわかった。
論文 参考訳(メタデータ) (2023-10-29T09:54:03Z) - Noise-Free Sampling Algorithms via Regularized Wasserstein Proximals [3.4240632942024685]
ポテンシャル関数が支配する分布からサンプリングする問題を考察する。
本研究は, 決定論的な楽譜に基づくMCMC法を提案し, 粒子に対する決定論的進化をもたらす。
論文 参考訳(メタデータ) (2023-08-28T23:51:33Z) - Sobolev Space Regularised Pre Density Models [51.558848491038916]
本研究では,ソボレフ法則の正則化に基づく非パラメトリック密度推定法を提案する。
この方法は統計的に一貫したものであり、帰納的検証モデルを明確かつ一貫したものにしている。
論文 参考訳(メタデータ) (2023-07-25T18:47:53Z) - Robust scalable initialization for Bayesian variational inference with
multi-modal Laplace approximations [0.0]
フル共分散構造を持つ変分混合は、パラメータ数による変動パラメータによる二次的な成長に苦しむ。
本稿では,変分推論のウォームスタートに使用できる初期ガウスモデル近似を構築する方法を提案する。
論文 参考訳(メタデータ) (2023-07-12T19:30:04Z) - Variational Gaussian filtering via Wasserstein gradient flows [6.023171219551961]
ガウスとガウスの混合フィルタを近似する新しい手法を提案する。
本手法は勾配流表現による変分近似に依存する。
論文 参考訳(メタデータ) (2023-03-11T12:22:35Z) - Gradient Flows for Sampling: Mean-Field Models, Gaussian Approximations and Affine Invariance [10.153270126742369]
確率密度空間とガウス空間の両方における勾配流について検討する。
ガウス空間のフローは、フローのガウス近似として理解することができる。
論文 参考訳(メタデータ) (2023-02-21T21:44:08Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Disentangling the Gauss-Newton Method and Approximate Inference for
Neural Networks [96.87076679064499]
我々は一般化されたガウスニュートンを解き、ベイズ深層学習の近似推論を行う。
ガウス・ニュートン法は基礎となる確率モデルを大幅に単純化する。
ガウス過程への接続は、新しい関数空間推論アルゴリズムを可能にする。
論文 参考訳(メタデータ) (2020-07-21T17:42:58Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。