論文の概要: Model-free Online Learning for the Kalman Filter: Forgetting Factor and Logarithmic Regret
- arxiv url: http://arxiv.org/abs/2505.08982v1
- Date: Tue, 13 May 2025 21:49:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.302037
- Title: Model-free Online Learning for the Kalman Filter: Forgetting Factor and Logarithmic Regret
- Title(参考訳): カルマンフィルタのためのモデルなしオンライン学習:予測因子と対数レグレット
- Authors: Jiachen Qian, Yang Zheng,
- Abstract要約: 未知の非爆発線形系に対するオンライン予測の問題点を考察する。
既知のシステムモデルでは、最適な予測子はカルマンフィルタである。
我々は指数的忘れ込みを通じて回帰モデルに帰納バイアスを注入することでこの問題に取り組む。
- 参考スコア(独自算出の注目度): 2.313314525234138
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We consider the problem of online prediction for an unknown, non-explosive linear stochastic system. With a known system model, the optimal predictor is the celebrated Kalman filter. In the case of unknown systems, existing approaches based on recursive least squares and its variants may suffer from degraded performance due to the highly imbalanced nature of the regression model. This imbalance can easily lead to overfitting and thus degrade prediction accuracy. We tackle this problem by injecting an inductive bias into the regression model via {exponential forgetting}. While exponential forgetting is a common wisdom in online learning, it is typically used for re-weighting data. In contrast, our approach focuses on balancing the regression model. This achieves a better trade-off between {regression} and {regularization errors}, and simultaneously reduces the {accumulation error}. With new proof techniques, we also provide a sharper logarithmic regret bound of $O(\log^3 N)$, where $N$ is the number of observations.
- Abstract(参考訳): 本研究では,未知の非線形確率システムに対するオンライン予測の問題点を考察する。
既知のシステムモデルでは、最適な予測子はカルマンフィルタである。
未知のシステムの場合、再帰的最小二乗とその変種に基づく既存のアプローチは、回帰モデルの高度に不均衡な性質のため、劣化性能に悩まされる可能性がある。
この不均衡は容易に過度に適合し、予測精度を低下させる。
本稿では, 回帰モデルに帰納バイアスを {exponential forgetting} を通じて注入することでこの問題に対処する。
指数的忘れはオンライン学習において一般的な知恵であるが、典型的にはデータの再重み付けに使われる。
対照的に、私たちのアプローチは回帰モデルのバランスに重点を置いています。
これにより、{regression} と {regularization error} のトレードオフが改善され、同時に {accumulation error} が減少する。
新たな証明手法により、よりシャープな対数的後悔境界である$O(\log^3N)$を提供し、そこでは$N$は観測数である。
関連論文リスト
- Scaling Laws in Linear Regression: Compute, Parameters, and Data [86.48154162485712]
無限次元線形回帰セットアップにおけるスケーリング法則の理論について検討する。
テストエラーの再現可能な部分は$Theta(-(a-1) + N-(a-1)/a)$であることを示す。
我々の理論は経験的ニューラルスケーリング法則と一致し、数値シミュレーションによって検証される。
論文 参考訳(メタデータ) (2024-06-12T17:53:29Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Engression: Extrapolation through the Lens of Distributional Regression [2.519266955671697]
我々は、エングレースと呼ばれるニューラルネットワークに基づく分布回帰手法を提案する。
エングレスモデル(engression model)は、適合した条件分布からサンプリングできるという意味で生成され、高次元結果にも適している。
一方、最小二乗法や量子回帰法のような従来の回帰手法は、同じ仮定の下では不十分である。
論文 参考訳(メタデータ) (2023-07-03T08:19:00Z) - Uncertainty Voting Ensemble for Imbalanced Deep Regression [20.176217123752465]
本稿では,不均衡なデータから学習するUVOTEを紹介する。
従来の回帰損失を負の対数類似度に置き換え、サンプルワイドのアレタリックな不確実性も予測する。
UVOTEは先行技術より一貫して優れており、同時に精度のよい不確実性評価が得られている。
論文 参考訳(メタデータ) (2023-05-24T14:12:21Z) - Streaming Sparse Linear Regression [1.8707139489039097]
本稿では,データポイントが逐次到着したときのストリーミングデータを解析する新しいオンライン疎線形回帰フレームワークを提案する。
提案手法はメモリ効率が高く,厳密な制約付き凸性仮定を必要とする。
論文 参考訳(メタデータ) (2022-11-11T07:31:55Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。