論文の概要: On the Impact of Sampling on Deep Sequential State Estimation
- arxiv url: http://arxiv.org/abs/2311.17006v1
- Date: Tue, 28 Nov 2023 17:59:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 17:12:51.951567
- Title: On the Impact of Sampling on Deep Sequential State Estimation
- Title(参考訳): サンプリングが深い逐次状態推定に及ぼす影響について
- Authors: Helena Calatrava and Ricardo Augusto Borsoi and Tales Imbiriba and Pau
Closas
- Abstract要約: 逐次モデルにおける状態推定とパラメータ学習は近似手法を用いてうまく行うことができる。
モンテカルロの厳密な目的は、生成的モデリング性能を向上させるために文献で提案されている。
- 参考スコア(独自算出の注目度): 17.92198582435315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State inference and parameter learning in sequential models can be
successfully performed with approximation techniques that maximize the evidence
lower bound to the marginal log-likelihood of the data distribution. These
methods may be referred to as Dynamical Variational Autoencoders, and our
specific focus lies on the deep Kalman filter. It has been shown that the ELBO
objective can oversimplify data representations, potentially compromising
estimation quality. Tighter Monte Carlo objectives have been proposed in the
literature to enhance generative modeling performance. For instance, the IWAE
objective uses importance weights to reduce the variance of marginal
log-likelihood estimates. In this paper, importance sampling is applied to the
DKF framework for learning deep Markov models, resulting in the IW-DKF, which
shows an improvement in terms of log-likelihood estimates and KL divergence
between the variational distribution and the transition model. The framework
using the sampled DKF update rule is also accommodated to address sequential
state and parameter estimation when working with highly non-linear
physics-based models. An experiment with the 3-space Lorenz attractor shows an
enhanced generative modeling performance and also a decrease in RMSE when
estimating the model parameters and latent states, indicating that tighter MCOs
lead to improved state inference performance.
- Abstract(参考訳): 逐次モデルにおける状態推定とパラメータ学習は、データ分布の辺りの対数類似度に制限された証拠を最大化する近似手法で成功する。
これらの手法は動的変分オートエンコーダ(Dynamical Variational Autoencoders)と呼ばれ、我々はディープカルマンフィルタに注目している。
elboの目標はデータ表現を単純化し、推定品質を損なう可能性がある。
モンテカルロの厳密な目的は、生成的モデリング性能を向上させるために文献で提案されている。
例えば、IWAEの目的は、限界対数類似度推定のばらつきを減らすために重要重量を使用する。
本稿では,深いマルコフモデルを学ぶためのdkfフレームワークに重要サンプリングを適用し,iw-dkfを用いて,変分分布と遷移モデルとのkl発散とログ類似度推定の改善を示す。
サンプルDKF更新規則を用いたフレームワークは、高非線形物理モデルを扱う場合の逐次状態とパラメータ推定にも適用可能である。
3空間ロレンツ誘引器を用いた実験では、モデルパラメータと潜時状態の推定時のRMSEの低減が図られ、より厳密なMCOが状態推論性能の向上につながることが示された。
関連論文リスト
- Online Variational Sequential Monte Carlo [56.16884466478886]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field
and Online Inference [50.91823345296243]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Perimeter Control Using Deep Reinforcement Learning: A Model-free
Approach towards Homogeneous Flow Rate Optimization [28.851432612392436]
周辺制御は、交通密度が臨界値以下であることを保証するため、地域間の移動フローを制御することにより、保護領域内の交通効率を高く維持する。
既存のアプローチは、ネットワーク伝送モデル(NTM)とマクロ基礎図(MFD)に依存するかによって、モデルベースまたはモデルフリーに分類することができる。
論文 参考訳(メタデータ) (2023-05-29T21:22:08Z) - Value Gradient weighted Model-Based Reinforcement Learning [28.366157882991565]
モデルベース強化学習(MBRL)は、制御ポリシーを得るための効率的な手法である。
VaGraMは価値認識モデル学習の新しい手法である。
論文 参考訳(メタデータ) (2022-04-04T13:28:31Z) - Diffusion Causal Models for Counterfactual Estimation [18.438307666925425]
本稿では,観測画像データから因果構造を推定する作業について考察する。
Diff-SCMは,近年の発電エネルギーモデルの発展を基盤とした構造因果モデルである。
Diff-SCMはMNISTデータに基づくベースラインよりも現実的で最小限のデファクトアルを生成しており、ImageNetデータにも適用可能である。
論文 参考訳(メタデータ) (2022-02-21T12:23:01Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Learnable Bernoulli Dropout for Bayesian Deep Learning [53.79615543862426]
Learnable Bernoulli Dropout (LBD) は、他のモデルパラメータと共に最適化されたパラメータとしてドロップアウト率を考慮する新しいモデルに依存しないドロップアウトスキームである。
LBDは画像分類とセマンティックセグメンテーションにおける精度と不確実性の推定を改善する。
論文 参考訳(メタデータ) (2020-02-12T18:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。