論文の概要: De-Sequentialized Monte Carlo: a parallel-in-time particle smoother
- arxiv url: http://arxiv.org/abs/2202.02264v1
- Date: Fri, 4 Feb 2022 17:46:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 17:25:55.943141
- Title: De-Sequentialized Monte Carlo: a parallel-in-time particle smoother
- Title(参考訳): 離散化モンテカルロ--パラレル・イン・タイム粒子スムース
- Authors: Adrien Corenflos and Nicolas Chopin and Simo S\"arkk\"a
- Abstract要約: 我々は、$mathcalO(log T)$ timeで$T$観測を処理できる新しい粒子スムーズなdSMC(de-Sequentialized Monte Carlo)を提案する。
これは標準粒子スムースラーと比較してよいが、その複雑さは$T$で線型である。
また、dSMCに基づく粒子ギブスサンプリングを設計し、並列ハードウェアで$mathcalO(log(T))$コストで状態空間モデルでパラメータ推論を行うことができる。
- 参考スコア(独自算出の注目度): 3.97478982737167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Particle smoothers are SMC (Sequential Monte Carlo) algorithms designed to
approximate the joint distribution of the states given observations from a
state-space model. We propose dSMC (de-Sequentialized Monte Carlo), a new
particle smoother that is able to process $T$ observations in $\mathcal{O}(\log
T)$ time on parallel architecture. This compares favourably with standard
particle smoothers, the complexity of which is linear in $T$. We derive
$\mathcal{L}_p$ convergence results for dSMC, with an explicit upper bound,
polynomial in $T$. We then discuss how to reduce the variance of the smoothing
estimates computed by dSMC by (i) designing good proposal distributions for
sampling the particles at the initialization of the algorithm, as well as by
(ii) using lazy resampling to increase the number of particles used in dSMC.
Finally, we design a particle Gibbs sampler based on dSMC, which is able to
perform parameter inference in a state-space model at a $\mathcal{O}(\log(T))$
cost on parallel hardware.
- Abstract(参考訳): 粒子スムーダ(Particle smoother)は、状態空間モデルから観測された状態の結合分布を近似するために設計されたSMC(Sequential Monte Carlo)アルゴリズムである。
dsmc (de-sequentialized monte carlo) を提案する。これは並列アーキテクチャ上で$t$の観測を$\mathcal{o}(\log t)$時間で処理できる新しい粒子平滑化である。
これは標準粒子スムースラーと比較してよいが、その複雑さは$T$で線型である。
dsmc に対する$\mathcal{l}_p$ の収束結果が導出され、明示的な上界多項式は$t$ である。
次に、dSMCによって計算された滑らかな推定値のばらつきを低減する方法について論じる。
(i)アルゴリズムの初期化時に粒子をサンプリングするための優れた提案分布を設計すること。
(ii)dsmcで使用される粒子数を増加させるために遅延再サンプリングを用いる。
最後に、dSMCに基づく粒子ギブスサンプリングを設計し、並列ハードウェア上で$\mathcal{O}(\log(T))$コストで状態空間モデルでパラメータ推論を行うことができる。
関連論文リスト
- Enhanced SMC$^2$: Leveraging Gradient Information from Differentiable Particle Filters Within Langevin Proposals [41.95156859549931]
連続モンテカルロ・スクエア (Sequential Monte Carlo Squared, SMC$2$) は、非線型、非ガウス状態空間モデルの状態とパラメータを推測できるベイズ法である。
SMC$2$の標準的なランダムウォーク提案は、特に高次元パラメータ空間において問題に直面している。
本研究では、PyTorchを用いて、共通乱数-粒子フィルタ(CRN-PF)から導出される一階勾配を利用して、新しいアプローチを概説する。
論文 参考訳(メタデータ) (2024-07-24T14:05:44Z) - Convergence Bounds for Sequential Monte Carlo on Multimodal Distributions using Soft Decomposition [6.872242798058046]
逐次モンテカルロ法(SMC)アルゴリズムにより得られたサンプルの実証測度の下での関数の分散に関するバウンダリを証明した。
我々は,局所MCMC力学に依存する混合時間を用いて,真のマルチモーダル設定でバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2024-05-29T22:43:45Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Closed-form Filtering for Non-linear Systems [83.91296397912218]
我々は密度近似と計算効率の面でいくつかの利点を提供するガウスPSDモデルに基づく新しいフィルタのクラスを提案する。
本研究では,遷移や観測がガウスPSDモデルである場合,フィルタリングを効率的にクローズド形式で行うことができることを示す。
提案する推定器は, 近似の精度に依存し, 遷移確率の正則性に適応する推定誤差を伴って, 高い理論的保証を享受する。
論文 参考訳(メタデータ) (2024-02-15T08:51:49Z) - SMC Is All You Need: Parallel Strong Scaling [0.695967916921061]
並列高強度スケーリングを実現するための完全並列シーケンシャルモンテカルロ法(pSMC)を開発した。
pSMC は無限小精度 MSE$=O(varepsilon2)$ に収束し、固定された有限時間複素度コスト=O(1)$ であり、効率リークがない。
論文 参考訳(メタデータ) (2024-02-09T04:13:38Z) - Langevin Quasi-Monte Carlo [6.146093081175471]
ランゲヴィン・モンテカルロ(LMC)とその勾配バージョンは複雑な高次元分布からサンプリングする強力なアルゴリズムである。
準ランダムサンプルを用いてLCCの推定誤差を低減できることを示す。
論文 参考訳(メタデータ) (2023-09-22T07:15:18Z) - Stochastic Approximation Approaches to Group Distributionally Robust
Optimization [96.26317627118912]
群分散ロバスト最適化(GDRO)
オンライン学習技術は、各ラウンドに必要なサンプル数をm$から1$に減らし、同じサンプルを保持する。
分布依存収束率を導出できる重み付きGDROの新規な定式化。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - Efficient Learning of the Parameters of Non-Linear Models using
Differentiable Resampling in Particle Filters [1.9499120576896227]
粒子フィルタにおけるサンプリングと再サンプリングのステップを区別することが広く文書化されている。
2つの状態空間モデルを検討し、NUTSがマルコフ連鎖の混合を改善し、計算時間の短縮でより正確な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-11-02T08:03:09Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。