論文の概要: Variational Kalman Filtering with Hinf-Based Correction for Robust
Bayesian Learning in High Dimensions
- arxiv url: http://arxiv.org/abs/2204.13089v1
- Date: Wed, 27 Apr 2022 17:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 13:24:25.233976
- Title: Variational Kalman Filtering with Hinf-Based Correction for Robust
Bayesian Learning in High Dimensions
- Title(参考訳): 高次元ロバストベイズ学習のためのヒンフ補正を用いた変分カルマンフィルタ
- Authors: Niladri Das, Jed A. Duersch, and Thomas A. Catanach
- Abstract要約: 本稿では,頑健な変動目標とHinf-normに基づく補正を適用し,逐次変動推定フィルタ(VIF)の収束問題に対処する。
連続的な変分推論とHinfに基づく最適化ステップを利用する新しいVIF-Hinf再帰法を提案する。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we address the problem of convergence of sequential
variational inference filter (VIF) through the application of a robust
variational objective and Hinf-norm based correction for a linear Gaussian
system. As the dimension of state or parameter space grows, performing the full
Kalman update with the dense covariance matrix for a large scale system
requires increased storage and computational complexity, making it impractical.
The VIF approach, based on mean-field Gaussian variational inference, reduces
this burden through the variational approximation to the covariance usually in
the form of a diagonal covariance approximation. The challenge is to retain
convergence and correct for biases introduced by the sequential VIF steps. We
desire a framework that improves feasibility while still maintaining reasonable
proximity to the optimal Kalman filter as data is assimilated. To accomplish
this goal, a Hinf-norm based optimization perturbs the VIF covariance matrix to
improve robustness. This yields a novel VIF- Hinf recursion that employs
consecutive variational inference and Hinf based optimization steps. We explore
the development of this method and investigate a numerical example to
illustrate the effectiveness of the proposed filter.
- Abstract(参考訳): 本稿では, 線形ガウス系に対するロバストな変動目標とHinf-normに基づく補正の適用により, 逐次変分推論フィルタ(VIF)の収束の問題に対処する。
状態空間やパラメータ空間の次元が大きくなるにつれて、大規模システムに対する密度共分散行列によるフルカルマン更新を実行するには、ストレージと計算の複雑さが増大し、現実的ではない。
VIFアプローチは平均場ガウス変分推定に基づいて、通常対角共分散近似の形で共分散への変分近似を通じて、この重みを減少させる。
課題は、シーケンシャルVIFステップによって導入されたバイアスの収束と修正を維持することである。
我々は、データの同化に伴って最適なカルマンフィルタに十分な近接を維持しつつ、実現可能性を向上させるフレームワークを望んでいる。
この目的を達成するために、ヒンフノルムに基づく最適化は、ロバスト性を改善するためにVIF共分散行列を乱す。
これにより、連続的な変分推論とhinfに基づく最適化ステップを用いる新しいvif-hinf再帰が得られる。
本手法の開発について検討し,提案フィルタの有効性を示す数値例を示す。
関連論文リスト
- Riemannian Federated Learning via Averaging Gradient Stream [8.75592575216789]
本稿では,RFedAGS(Federated Averaging Gradient Stream)アルゴリズムの開発と解析を行う。
合成および実世界のデータを用いて数値シミュレーションを行い,提案したRFedAGSの性能を実証した。
論文 参考訳(メタデータ) (2024-09-11T12:28:42Z) - Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling [22.256068524699472]
本研究では,これらの問題に対処するために,Annealed Importance Smpling (AIS)アプローチを提案する。
シークエンシャルモンテカルロサンプリング器とVIの強度を組み合わせることで、より広い範囲の後方分布を探索し、徐々にターゲット分布に接近する。
実験結果から,本手法はより厳密な変動境界,高い対数類似度,より堅牢な収束率で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-13T08:09:05Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - Joint State Estimation and Noise Identification Based on Variational
Optimization [8.536356569523127]
CVIAKFと呼ばれる共役計算変分推論に基づく新しい適応カルマンフィルタ法を提案する。
CVIAKFの有効性は、目標追尾のための合成および実世界のデータセットを通して検証される。
論文 参考訳(メタデータ) (2023-12-15T07:47:03Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - An Adaptive Incremental Gradient Method With Support for Non-Euclidean
Norms [19.41328109094503]
そこで本研究では,SAGAアルゴリズムの適応型を新たにいくつか提案し,解析する。
一般的な設定の下で収束保証を確立する。
我々は、非ユークリッドノルムをサポートするためにSAGAの分析を改善した。
論文 参考訳(メタデータ) (2022-04-28T09:43:07Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。