論文の概要: The Rank-Reduced Kalman Filter: Approximate Dynamical-Low-Rank Filtering
In High Dimensions
- arxiv url: http://arxiv.org/abs/2306.07774v2
- Date: Wed, 28 Jun 2023 18:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 16:24:03.242383
- Title: The Rank-Reduced Kalman Filter: Approximate Dynamical-Low-Rank Filtering
In High Dimensions
- Title(参考訳): ランク縮小カルマンフィルタ : 高次元における近似動的低ランクフィルタリング
- Authors: Jonathan Schmidt, Philipp Hennig, J\"org Nick, Filip Tronarp
- Abstract要約: 低ランク行列の低ランク近似を伝播する新しい近似フィルタリング・平滑化法を提案する。
提案手法は, 計算複雑性を(カルマンフィルタの場合) 立方体から, 最悪ケースにおける状態空間サイズにおけるエンフクトラティックに還元する。
- 参考スコア(独自算出の注目度): 27.37550904409881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inference and simulation in the context of high-dimensional dynamical systems
remain computationally challenging problems. Some form of dimensionality
reduction is required to make the problem tractable in general. In this paper,
we propose a novel approximate Gaussian filtering and smoothing method which
propagates low-rank approximations of the covariance matrices. This is
accomplished by projecting the Lyapunov equations associated with the
prediction step to a manifold of low-rank matrices, which are then solved by a
recently developed, numerically stable, dynamical low-rank integrator.
Meanwhile, the update steps are made tractable by noting that the covariance
update only transforms the column space of the covariance matrix, which is
low-rank by construction. The algorithm differentiates itself from existing
ensemble-based approaches in that the low-rank approximations of the covariance
matrices are deterministic, rather than stochastic. Crucially, this enables the
method to reproduce the exact Kalman filter as the low-rank dimension
approaches the true dimensionality of the problem. Our method reduces
computational complexity from cubic (for the Kalman filter) to \emph{quadratic}
in the state-space size in the worst-case, and can achieve \emph{linear}
complexity if the state-space model satisfies certain criteria. Through a set
of experiments in classical data-assimilation and spatio-temporal regression,
we show that the proposed method consistently outperforms the ensemble-based
methods in terms of error in the mean and covariance with respect to the exact
Kalman filter. This comes at no additional cost in terms of asymptotic
computational complexity.
- Abstract(参考訳): 高次元力学系の文脈における推論とシミュレーションは、計算的に難しい問題のままである。
いくつかの次元還元は、問題を一般に引き出すのに必要である。
本稿では,共分散行列の低ランク近似を伝播する新しい近似ガウスフィルタ・平滑化法を提案する。
これは、予測ステップに関連するリアプノフ方程式を低ランク行列の多様体に投影し、最近開発された数値的に安定な動的低ランク積分器によって解かれる。
一方、共分散更新は共分散行列の列空間のみを変換し、構成によりランクが低いことを指摘して、更新ステップを扱いやすくする。
このアルゴリズムは、共分散行列の低ランク近似が確率的ではなく決定論的であるという点において、既存のアンサンブルに基づくアプローチと差別化する。
これにより、低ランク次元が問題の真の次元に近づくにつれて、正確なカルマンフィルタを再現することができる。
本手法は,(カルマンフィルタの場合)立方体から最悪の場合の状態空間サイズにおける \emph{quadratic} までの計算複雑性を低減し,状態空間モデルが一定の条件を満たす場合に \emph{linear} の複雑性を実現する。
古典的データ同化と時空間回帰の一連の実験を通じて,提案手法は平均誤差と正確なカルマンフィルタに対する共変性の観点から,アンサンブルに基づく手法を一貫して上回っていることを示す。
これは漸近的な計算の複雑さに関して追加のコストを伴わない。
関連論文リスト
- $\ell_0$ factor analysis [25.14792952830999]
低ランク成分に対する核ノルムを用いた最適化問題を定式化する。
最適化問題の解法として、交互最小化アルゴリズムを設計する。
アルゴリズムの有効性は、合成データセットと実データセットのシミュレーションによって検証される。
論文 参考訳(メタデータ) (2024-11-13T09:40:23Z) - Computation-Aware Kalman Filtering and Smoothing [27.55456716194024]
本稿では,高次元ガウス・オヴモデルに対する確率論的数値推論を提案する。
我々のアルゴリズムはGPUアクセラレーションを活用し、予測コストと不確実性の間の調整可能なトレードオフを可能にする。
論文 参考訳(メタデータ) (2024-05-14T21:31:11Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Decomposed Diffusion Sampler for Accelerating Large-Scale Inverse
Problems [64.29491112653905]
本稿では, 拡散サンプリング法とクリロフ部分空間法を相乗的に組み合わせた, 新規で効率的な拡散サンプリング手法を提案する。
具体的には、ツイーディの公式による分母化標本における接空間がクリロフ部分空間を成すならば、その分母化データによるCGは、接空間におけるデータの整合性更新を確実に維持する。
提案手法は,従来の最先端手法よりも80倍以上高速な推論時間を実現する。
論文 参考訳(メタデータ) (2023-03-10T07:42:49Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Sampling Approximately Low-Rank Ising Models: MCMC meets Variational
Methods [35.24886589614034]
一般相互作用が$J$である超キューブ上の二次定値イジングモデルを考える。
我々の一般的な結果は、低ランクのIsingモデルに対する最初のサンプリングアルゴリズムを示唆している。
論文 参考訳(メタデータ) (2022-02-17T21:43:50Z) - Splitting numerical integration for matrix completion [0.0]
低階行列近似のための新しいアルゴリズムを提案する。
このアルゴリズムは最適化の枠組みにおける古典的な勾配勾配の適応である。
実験結果から,本手法は大規模問題に対して優れたスケーラビリティを有することが示された。
論文 参考訳(メタデータ) (2022-02-14T04:45:20Z) - Sparse Quadratic Optimisation over the Stiefel Manifold with Application
to Permutation Synchronisation [71.27989298860481]
二次目的関数を最大化するスティーフェル多様体上の行列を求める非最適化問題に対処する。
そこで本研究では,支配的固有空間行列を求めるための,単純かつ効果的なスパーシティプロモーティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-30T19:17:35Z) - KaFiStO: A Kalman Filtering Framework for Stochastic Optimization [27.64040983559736]
ニューラルネットワークのトレーニングでは,サンプルのサブセットをランダムに選択することで,損失関数が時間とともに変化することを示す。
このランダム化は最適化問題を最適なものにする。
我々は、この損失を、何らかの参照に関してうるさい観察と見なすことを提案する。
論文 参考訳(メタデータ) (2021-07-07T16:13:57Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。