論文の概要: Robust Filtering and Learning in State-Space Models: Skewness and Heavy Tails Via Asymmetric Laplace Distribution
- arxiv url: http://arxiv.org/abs/2507.22343v1
- Date: Wed, 30 Jul 2025 03:06:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:17.956542
- Title: Robust Filtering and Learning in State-Space Models: Skewness and Heavy Tails Via Asymmetric Laplace Distribution
- Title(参考訳): 状態空間モデルにおけるロバストフィルタリングと学習--非対称ラプラス分布によるスキューネスとヘビーテール
- Authors: Yifan Yu, Shengjie Xiu, Daniel P. Palomar,
- Abstract要約: 本稿では,効率的な変分ベイズアルゴリズムと新しい単一ループパラメータ推定手法を提案する。
実験により,提案手法は様々なノイズ設定に対して一貫した頑健な性能を提供することを示した。
- 参考スコア(独自算出の注目度): 8.60136504672206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-space models are pivotal for dynamic system analysis but often struggle with outlier data that deviates from Gaussian distributions, frequently exhibiting skewness and heavy tails. This paper introduces a robust extension utilizing the asymmetric Laplace distribution, specifically tailored to capture these complex characteristics. We propose an efficient variational Bayes algorithm and a novel single-loop parameter estimation strategy, significantly enhancing the efficiency of the filtering, smoothing, and parameter estimation processes. Our comprehensive experiments demonstrate that our methods provide consistently robust performance across various noise settings without the need for manual hyperparameter adjustments. In stark contrast, existing models generally rely on specific noise conditions and necessitate extensive manual tuning. Moreover, our approach uses far fewer computational resources, thereby validating the model's effectiveness and underscoring its potential for practical applications in fields such as robust control and financial modeling.
- Abstract(参考訳): 状態空間モデルは動的システム解析において重要であるが、しばしばガウス分布から逸脱し、しばしば歪みと重みを呈する外れ値データに悩まされる。
本稿では、非対称なラプラス分布を利用したロバストな拡張について紹介する。
本稿では, 効率的な変分ベイズアルゴリズムと新しい単一ループパラメータ推定手法を提案し, フィルタリング, 平滑化, パラメータ推定の効率を大幅に向上させる。
提案手法は,手動のハイパーパラメータ調整を必要とせずに,様々なノイズ設定に対して一貫した頑健な性能を提供することを示す。
対照的に、既存のモデルは一般的に特定のノイズ条件に依存し、広範囲な手動チューニングを必要とする。
さらに,本手法は計算資源をはるかに少なくし,モデルの有効性を検証し,ロバスト制御やファイナンシャルモデリングなどの分野での実用化の可能性を示す。
関連論文リスト
- Distributionally Robust Optimization as a Scalable Framework to Characterize Extreme Value Distributions [22.765095010254118]
本研究の目的は分散ロバストな最適化 (DRO) 推定器の開発であり、特に多次元極値理論 (EVT) の統計量についてである。
点過程の空間における半パラメトリックな最大安定制約によって予測されるDRO推定器について検討した。
両手法は, 合成データを用いて検証し, 所定の特性を回復し, 提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-07-31T19:45:27Z) - Variational Bayesian surrogate modelling with application to robust design optimisation [0.9626666671366836]
サロゲートモデルは複雑な計算モデルに対して素早く評価できる近似を提供する。
入力の不確かさと次元減少を伴う統計的代理を構築するためのベイズ推定について考察する。
コスト関数がモデル出力の平均および標準偏差の重み付け和に依存するような本質的で頑健な構造最適化問題を示す。
論文 参考訳(メタデータ) (2024-04-23T09:22:35Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Numerically Stable Sparse Gaussian Processes via Minimum Separation
using Cover Trees [57.67528738886731]
誘導点に基づくスケーラブルスパース近似の数値安定性について検討する。
地理空間モデリングなどの低次元タスクに対しては,これらの条件を満たす点を自動計算する手法を提案する。
論文 参考訳(メタデータ) (2022-10-14T15:20:17Z) - Bayesian Optimisation for Robust Model Predictive Control under Model
Parameter Uncertainty [26.052368583196426]
本稿では,モデル予測制御(MPC)ハイパーパラメータのチューニングのための適応最適化手法を提案する。
本研究では,異種難聴モデルを用いたベイズ最適化 (BO) アルゴリズムを開発し,様々なノイズに対処する。
実験結果から,本手法はより高い累積報酬とより安定したコントローラをもたらすことが示された。
論文 参考訳(メタデータ) (2022-03-01T15:33:21Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。