論文の概要: Robust Automatic Differentiation of Square-Root Kalman Filters via Gramian Differentials
- arxiv url: http://arxiv.org/abs/2603.13559v1
- Date: Fri, 13 Mar 2026 19:55:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.272981
- Title: Robust Automatic Differentiation of Square-Root Kalman Filters via Gramian Differentials
- Title(参考訳): 文法微分による正方形ルートカルマンフィルタのロバスト自動微分
- Authors: Adrien Corenflos,
- Abstract要約: 平方根カルマンフィルタは、Colesky-factor形式の状態共分散を数値安定性のために伝播する。
彼らの中心となる演算、mathbbRn × m$ の行列 $M の三角化は、実際にはQR分解によって計算される。
これはムーア-ペンローズ擬逆数に基づく列空間項と、M$の列空間の外の摂動に対するヌル空間補正である。
- 参考スコア(独自算出の注目度): 3.542663650865005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Square-root Kalman filters propagate state covariances in Cholesky-factor form for numerical stability, and are a natural target for gradient-based parameter learning in state-space models. Their core operation, triangularization of a matrix $M \in \mathbb{R}^{n \times m}$, is computed via a QR decomposition in practice, but naively differentiating through it causes two problems: the semi-orthogonal factor is non-unique when $m > n$, yielding undefined gradients; and the standard Jacobian formula involves inverses, which diverges when $M$ is rank-deficient. Both are resolved by the observation that all filter outputs relevant to learning depend on the input matrix only through the Gramian $MM^\top$, so the composite loss is smooth in $M$ even where the triangularization is not. We derive a closed-form chain-rule directly from the differential of this Gramian identity, prove it exact for the Kalman log-marginal likelihood and filtered moments, and extend it to rank-deficient inputs via a two-component decomposition: a column-space term based on the Moore--Penrose pseudoinverse, and a null-space correction for perturbations outside the column space of $M$.
- Abstract(参考訳): 平方根カルマンフィルタは、Colesky-factor形式の状態共分散を数値安定性のために伝播し、状態空間モデルにおける勾配に基づくパラメータ学習の自然なターゲットである。
それらの中心的な演算である、行列 $M \in \mathbb{R}^{n \times m}$ の三角化は、実際にはQR分解によって計算されるが、それを微分することで、2つの問題を引き起こす。
どちらも、学習に関連する全てのフィルタ出力は、グラミアン$MM^\top$を通してのみ入力行列に依存しているため、三角化がなければ合成損失は$M$で滑らかである。
この文法的アイデンティティの微分から直接閉形式連鎖ルールを導出し、カルマン対数確率とフィルターモーメントの完全性を証明し、2成分分解(ムーア-ペンローズ擬逆数に基づくカラム空間項と、M$のカラム空間外の摂動に対するヌル空間補正)を通してランク不足入力に拡張する。
関連論文リスト
- Regularized Online RLHF with Generalized Bilinear Preferences [68.44113000390544]
一般的な嗜好を伴う文脈的オンラインRLHFの問題を考える。
一般化された双線形選好モデルを用いて、低ランクなスキュー対称行列による選好を捉える。
グリーディポリシーの双対ギャップは推定誤差の正方形によって有界であることを示す。
論文 参考訳(メタデータ) (2026-02-26T15:27:53Z) - High-Rank Irreducible Cartesian Tensor Decomposition and Bases of Equivariant Spaces [48.465738895704455]
カルトテンソルの分解のための経路行列を、小さくて手頃な複雑さを持つランク$n=9$まで構築する。
提案手法はRREFアルゴリズムを回避し,各ICT分解行列の完全な解析的導出を維持する。
結果は任意のテンソル積と直和空間に拡張され、対称性を維持しながら異なる空間間の自由な設計が可能となる。
論文 参考訳(メタデータ) (2024-12-24T08:25:38Z) - Accurate and Scalable Stochastic Gaussian Process Regression via Learnable Coreset-based Variational Inference [8.077736581030264]
本稿では,ガウス過程(mathcalGP$)回帰に対する新しい帰納的変分推定法を提案する。
従来の推論用自由形式変動型族とは異なり、コアセットベースの変動型 $mathcalGP$ (CVGP) は $mathcalGP$ pre と (重み付き) データの確率で定義される。
論文 参考訳(メタデータ) (2023-11-02T17:22:22Z) - The Rank-Reduced Kalman Filter: Approximate Dynamical-Low-Rank Filtering
In High Dimensions [32.30527731746912]
低ランク行列の低ランク近似を伝播する新しい近似フィルタリング・平滑化法を提案する。
提案手法は, 計算複雑性を(カルマンフィルタの場合) 立方体から, 最悪ケースにおける状態空間サイズにおけるエンフクトラティックに還元する。
論文 参考訳(メタデータ) (2023-06-13T13:50:31Z) - Purity decay rate in random circuits with different configurations of
gates [0.0]
我々は、様々なジオメトリの作用の下で、純度減衰(二部体の絡み合いの尺度)を$n$の連鎖で研究する。
ほとんどの回路において、純度は2つの段階においてその値に減衰する: 初期の熱力学的に関係した崩壊は$sim lambda_mathrmeffeff$であり、$lambda_mathrmeff$は必ずしも転移行列のスペクトルにあるとは限らない。
論文 参考訳(メタデータ) (2022-11-24T12:32:07Z) - Hybrid Model-based / Data-driven Graph Transform for Image Coding [54.31406300524195]
予測内残差ブロックを符号化するハイブリッドモデルベース/データ駆動方式を提案する。
変換行列の最初の$K$固有ベクトルは、安定性のための非対称離散正弦変換(ADST)のような統計モデルから導かれる。
WebPをベースライン画像として使用することにより、我々のハイブリッドグラフ変換は、デフォルトの離散コサイン変換(DCT)よりもエネルギーの圧縮が良く、KLTよりも安定性がよいことを示す。
論文 参考訳(メタデータ) (2022-03-02T15:36:44Z) - High-Dimensional Gaussian Process Inference with Derivatives [90.8033626920884]
低データ状態の$ND$では、Gram行列は$mathcalO(N2D + (N2)3)$に推論のコストを下げる方法で分解できることを示す。
最適化や予測勾配を持つハミルトニアンモンテカルロなど、機械学習に関連する様々なタスクでこの可能性を実証する。
論文 参考訳(メタデータ) (2021-02-15T13:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。