論文の概要: Efficient Learning of the Parameters of Non-Linear Models using
Differentiable Resampling in Particle Filters
- arxiv url: http://arxiv.org/abs/2111.01409v1
- Date: Tue, 2 Nov 2021 08:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 12:47:21.605387
- Title: Efficient Learning of the Parameters of Non-Linear Models using
Differentiable Resampling in Particle Filters
- Title(参考訳): 粒子フィルタにおける微分型再サンプリングを用いた非線形モデルのパラメータの効率的な学習
- Authors: Conor Rosato, Paul Horridge, Thomas B. Sch\"on, Simon Maskell
- Abstract要約: 粒子フィルタにおけるサンプリングと再サンプリングのステップを区別することが広く文書化されている。
2つの状態空間モデルを検討し、NUTSがマルコフ連鎖の混合を改善し、計算時間の短縮でより正確な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 1.9499120576896227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been widely documented that the sampling and resampling steps in
particle filters cannot be differentiated. The {\itshape reparameterisation
trick} was introduced to allow the sampling step to be reformulated into a
differentiable function. We extend the {\itshape reparameterisation trick} to
include the stochastic input to resampling therefore limiting the
discontinuities in the gradient calculation after this step. Knowing the
gradients of the prior and likelihood allows us to run particle Markov Chain
Monte Carlo (p-MCMC) and use the No-U-Turn Sampler (NUTS) as the proposal when
estimating parameters.
We compare the Metropolis-adjusted Langevin algorithm (MALA), Hamiltonian
Monte Carlo with different number of steps and NUTS. We consider two
state-space models and show that NUTS improves the mixing of the Markov chain
and can produce more accurate results in less computational time.
- Abstract(参考訳): 粒子フィルタのサンプリングと再サンプリングのステップは区別できないことが広く記録されている。
サンプリングステップを微分可能関数に再構成可能にするために「itshape reparameterization trick」が導入された。
本稿では, この段階以降の勾配計算における不連続性を制限するために, 確率的入力を含むように拡張する。
事前および可能性の勾配を知ることで、パラメータを推定する際に、粒子Markov Chain Monte Carlo (p-MCMC) を実行し、No-U-Turn Sampler (NUTS) を用いることができる。
我々は、メトロポリス調整ランゲヴィンアルゴリズム(MALA)、ハミルトンモンテカルロと異なるステップ数とNUTSを比較した。
2つの状態空間モデルを検討し、NUTSがマルコフ連鎖の混合を改善し、計算時間の短縮でより正確な結果が得られることを示す。
関連論文リスト
- Differentiable Interacting Multiple Model Particle Filtering [24.26220422457388]
本研究では,パラメータ学習のための連続モンテカルロアルゴリズムを提案する。
我々は、微分可能な粒子フィルタリングの新たな枠組みを採用し、パラメータは勾配降下によって訓練される。
提案アルゴリズムの新たな理論的結果を確立し,従来の最先端アルゴリズムと比較して優れた数値性能を示す。
論文 参考訳(メタデータ) (2024-10-01T12:05:18Z) - Closed-form Filtering for Non-linear Systems [83.91296397912218]
我々は密度近似と計算効率の面でいくつかの利点を提供するガウスPSDモデルに基づく新しいフィルタのクラスを提案する。
本研究では,遷移や観測がガウスPSDモデルである場合,フィルタリングを効率的にクローズド形式で行うことができることを示す。
提案する推定器は, 近似の精度に依存し, 遷移確率の正則性に適応する推定誤差を伴って, 高い理論的保証を享受する。
論文 参考訳(メタデータ) (2024-02-15T08:51:49Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Restoration-Degradation Beyond Linear Diffusions: A Non-Asymptotic
Analysis For DDIM-Type Samplers [90.45898746733397]
本研究では拡散生成モデルに用いる決定論的サンプリング器の非漸近解析のためのフレームワークを開発する。
確率フローODEに沿った1ステップは,1) 条件付き対数線上を無限に先行して上昇する回復ステップ,2) 雑音を現在の勾配に向けて前向きに進行する劣化ステップの2段階で表すことができる。
論文 参考訳(メタデータ) (2023-03-06T18:59:19Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Bayesian multiscale deep generative model for the solution of
high-dimensional inverse problems [0.0]
深層確率的生成モデルに基づく新しいマルチスケールベイズ推論手法が導入された。
この方法は、安定性、効率、精度を示しながら、高次元パラメータ推定を可能にする。
論文 参考訳(メタデータ) (2021-02-04T11:47:21Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - Reversible Jump PDMP Samplers for Variable Selection [1.5469452301122175]
分数的決定論的マルコフ過程(PDMP)に基づくモンテカルロアルゴリズムの新しいクラスは、最近大きな可能性を示している。
PDMPサンプリング装置は、ほぼ至る所で識別可能な後部密度からのみサンプリングすることができる。
モデルの離散空間とパラメータの連続空間を共同で探索できる可逆ジャンプPDMPサンプリング器の開発方法について述べる。
論文 参考訳(メタデータ) (2020-10-22T14:46:33Z) - Unbiased Gradient Estimation for Variational Auto-Encoders using Coupled
Markov Chains [34.77971292478243]
変分オートエンコーダ(VAE)は、オートエンコーダのようなアーキテクチャで2つのニューラルネットワークを持つ、潜伏変数モデルである。
ログ型勾配の偏りのない推定器を導入することにより,VAEのトレーニング手法を開発する。
偏りのない推定器を装着したVAEは予測性能が向上することを示した。
論文 参考訳(メタデータ) (2020-10-05T08:11:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。