論文の概要: Optimization or Architecture: How to Hack Kalman Filtering
- arxiv url: http://arxiv.org/abs/2310.00675v1
- Date: Sun, 1 Oct 2023 14:00:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 02:38:13.603394
- Title: Optimization or Architecture: How to Hack Kalman Filtering
- Title(参考訳): 最適化やアーキテクチャ - Kalmanフィルタのハック方法
- Authors: Ido Greenberg, Netanel Yannay, Shie Mannor
- Abstract要約: 非線形フィルタリングでは、ニューラルネットワークのような非線形アーキテクチャと標準線形カルマンフィルタ(KF)を比較するのが伝統的である。
どちらも同じように最適化されるべきであり、最終的には最適化KF(OKF)を提示する。
- 参考スコア(独自算出の注目度): 52.640789351385266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In non-linear filtering, it is traditional to compare non-linear
architectures such as neural networks to the standard linear Kalman Filter
(KF). We observe that this mixes the evaluation of two separate components: the
non-linear architecture, and the parameters optimization method. In particular,
the non-linear model is often optimized, whereas the reference KF model is not.
We argue that both should be optimized similarly, and to that end present the
Optimized KF (OKF). We demonstrate that the KF may become competitive to neural
models - if optimized using OKF. This implies that experimental conclusions of
certain previous studies were derived from a flawed process. The advantage of
OKF over the standard KF is further studied theoretically and empirically, in a
variety of problems. Conveniently, OKF can replace the KF in real-world systems
by merely updating the parameters.
- Abstract(参考訳): 非線形フィルタリングでは、ニューラルネットワークのような非線形アーキテクチャと標準線形カルマンフィルタ(KF)を比較するのが伝統的である。
これは非線形アーキテクチャとパラメータ最適化法という2つの異なるコンポーネントの評価を混合するものである。
特に非線形モデルはしばしば最適化されるが、参照KFモデルは最適化されない。
どちらも同じように最適化されるべきであり、最終的には最適化KF(OKF)を提示する。
KFは、OKFを使用して最適化された場合、ニューラルモデルと競合する可能性があることを実証する。
これは、ある先行研究の実験的な結論が欠陥のある過程に由来することを示唆している。
標準KFに対するOKFの利点は、様々な問題において理論的および経験的にさらに研究されている。
同様に、OKFはパラメータを単に更新するだけで現実世界のシステムでKFを置き換えることができる。
関連論文リスト
- A competitive baseline for deep learning enhanced data assimilation using conditional Gaussian ensemble Kalman filtering [0.0]
条件付きガウスEnKF(CG-EnKF)と正常スコアEnKF(NS-EnKF)の2つの非線形拡張について検討した。
我々はこれらのモデルを、スコアフィルタ(SF)と呼ばれる最先端のディープラーニングに基づく粒子フィルタと比較する。
解析の結果,CG-EnKFとNS-EnKFは非ガウス的な雑音摂動を処理できることがわかった。
論文 参考訳(メタデータ) (2024-09-22T02:54:33Z) - Inverse Cubature and Quadrature Kalman filters [16.975704972827305]
我々は、逆立方体KF(I-CKF)、逆立方体KF(I-QKF)、逆立方体KF(I-CQKF)を開発する。
指数平均二乗有界感におけるフィルタの安定性条件を導出し,フィルタの整合性を証明する。
論文 参考訳(メタデータ) (2023-03-18T03:48:39Z) - Online Hyperparameter Optimization for Class-Incremental Learning [99.70569355681174]
クラス増分学習(Class-incremental Learning, CIL)は、クラス数がフェーズごとに増加する一方で、分類モデルを訓練することを目的としている。
CILの固有の課題は、安定性と塑性のトレードオフである。すなわち、CILモデルは古い知識を保ち、新しい知識を吸収するためにプラスチックを保たなければならない。
本稿では,事前設定を知らずにトレードオフを適応的に最適化するオンライン学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-11T17:58:51Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - Outlier-Insensitive Kalman Filtering Using NUV Priors [24.413595920205907]
実際には、観測は外れ値によって破損し、カルマンフィルタ(KF)の性能を著しく損なう。
本研究では、各電位外乱を未知の分散確率変数(NUV)としてモデル化し、外乱に敏感なKFを提案する。
予測最大化(EM)と変動ロバスト性(AM)の両方を用いて、NUVs分散をオンラインで推定する。
論文 参考訳(メタデータ) (2022-10-12T11:00:13Z) - Optimizing Partial Area Under the Top-k Curve: Theory and Practice [151.5072746015253]
トップk曲線下部分領域(AUTKC)と呼ばれる新しい計量法を開発した。
AUTKCはより優れた識別能力を持ち、ベイズ最適スコア関数は条件付き確率に対して正しいトップKランクを与えることができる。
提案手法を最適化するために,実証的なサロゲートリスク最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-03T11:09:13Z) - Inverse Extended Kalman Filter -- Part II: Highly Non-Linear and
Uncertain Systems [18.244578289687123]
本稿では,非線形システムにおける逆フィルタ問題に対処する逆拡張カルマンフィルタ(I-EKF)を提案する。
第1部:I-EKF(未知の入力を含む)とI-KF(未知の入力を含む)の理論
第2部:I-EKF(未知入力)とI-KF(未知入力)の理論
論文 参考訳(メタデータ) (2022-08-13T16:55:39Z) - Using Kalman Filter The Right Way: Noise Estimation Is Not Optimal [46.556605821252276]
kfの仮定を少しでも破っても、効果のあるノイズを著しく修正できることを示す。
KFの対称および正定値(SPD)パラメータに勾配に基づく最適化を効率的に適用する方法を提案する。
論文 参考訳(メタデータ) (2021-04-06T08:59:15Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。