論文の概要: Variational Rejection Particle Filtering
- arxiv url: http://arxiv.org/abs/2103.15343v1
- Date: Mon, 29 Mar 2021 05:29:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:47:56.513423
- Title: Variational Rejection Particle Filtering
- Title(参考訳): 変分拒否粒子フィルタリング
- Authors: Rahul Sharma, Soumya Banerjee, Dootika Vats, Piyush Rai
- Abstract要約: 変動拒絶粒子フィルタ(VRPF)は、限界可能性に関する新しい変動境界をもたらす。
変動境界の理論的性質を提示し、連続データの様々なモデルに関する実験を実証する。
- 参考スコア(独自算出の注目度): 28.03831528555717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a variational inference (VI) framework that unifies and leverages
sequential Monte-Carlo (particle filtering) with \emph{approximate} rejection
sampling to construct a flexible family of variational distributions.
Furthermore, we augment this approach with a resampling step via Bernoulli
race, a generalization of a Bernoulli factory, to obtain a low-variance
estimator of the marginal likelihood. Our framework, Variational Rejection
Particle Filtering (VRPF), leads to novel variational bounds on the marginal
likelihood, which can be optimized efficiently with respect to the variational
parameters and generalizes several existing approaches in the VI literature. We
also present theoretical properties of the variational bound and demonstrate
experiments on various models of sequential data, such as the Gaussian
state-space model and variational recurrent neural net (VRNN), on which VRPF
outperforms various existing state-of-the-art VI methods.
- Abstract(参考訳): 本稿では, 逐次的モンテカルロ(粒子フィルタリング)と<emph{approximate}リジェクションサンプリングを統合し, 変動分布の柔軟な族を構築するための変分推論(vi)フレームワークを提案する。
さらに,ベルヌーイ工場の一般化であるベルヌーイ・レース(bernoulli race)による再サンプリングにより,このアプローチを補強し,限界確率の低分散推定値を得る。
我々のフレームワークであるVRPFは、変分パラメータに関して効率よく最適化でき、VI文献におけるいくつかの既存手法を一般化できる、新しい変分確率境界を導出する。
また、変動境界の理論的性質を示し、ガウス状態空間モデルや変動リカレントニューラルネット(VRNN)など、様々なシーケンシャルデータのモデル実験を行い、VRPFが既存のVI法よりも優れていることを示す。
関連論文リスト
- Functional Gradient Flows for Constrained Sampling [29.631753643887237]
本稿では,制約付き関数勾配流(CFG)と呼ばれる,制約付きサンプリングのための新しい関数勾配ParVI法を提案する。
また、領域制約から生じる境界積分項を扱うための新しい数値戦略を提案する。
論文 参考訳(メタデータ) (2024-10-30T16:20:48Z) - Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling [22.256068524699472]
本研究では,これらの問題に対処するために,Annealed Importance Smpling (AIS)アプローチを提案する。
シークエンシャルモンテカルロサンプリング器とVIの強度を組み合わせることで、より広い範囲の後方分布を探索し、徐々にターゲット分布に接近する。
実験結果から,本手法はより厳密な変動境界,高い対数類似度,より堅牢な収束率で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-13T08:09:05Z) - Forward $\chi^2$ Divergence Based Variational Importance Sampling [2.841087763205822]
本稿では,ログ類似度を直接推定し,最大化する新しい変動重要度サンプリング(VIS)手法を提案する。
我々は、混合モデル、変分自動エンコーダ、部分的に観測可能な一般化線形モデルなど、様々な一般的な潜在変数モデルにVISを適用する。
論文 参考訳(メタデータ) (2023-11-04T21:46:28Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - Generalised Gaussian Process Latent Variable Models (GPLVM) with
Stochastic Variational Inference [9.468270453795409]
ミニバッチ学習が可能なBayesianVMモデルの2倍の定式化について検討する。
このフレームワークが、異なる潜在変数の定式化とどのように互換性を持つかを示し、モデルの組を比較する実験を行う。
我々は、膨大な量の欠落データの存在下でのトレーニングと、高忠実度再構築の実施を実証する。
論文 参考訳(メタデータ) (2022-02-25T21:21:51Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Loss function based second-order Jensen inequality and its application
to particle variational inference [112.58907653042317]
粒子変分推論(PVI)は、後部分布の実験的近似としてモデルのアンサンブルを用いる。
PVIは、最適化されたモデルの多様性を保証するために、各モデルを反発力で反復的に更新する。
我々は,新たな一般化誤差を導出し,モデルの多様性を高めて低減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T12:13:51Z) - Statistical Guarantees for Transformation Based Models with Applications
to Implicit Variational Inference [8.333191406788423]
非パラメトリック推論における非線形潜在変数モデル(NL-LVM)の使用に関する理論的正当性を提供する。
我々はNL-LVMを用いて、GP-IVIとみなす変分分布の暗黙の族を構築する。
私たちの知る限りでは、暗黙の変分推論の理論的保証を提供するための最初の研究である。
論文 参考訳(メタデータ) (2020-10-23T21:06:29Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Stochastic Normalizing Flows [52.92110730286403]
微分方程式(SDE)を用いた最大推定と変分推論のための正規化フロー(VI)を導入する。
粗い経路の理論を用いて、基礎となるブラウン運動は潜在変数として扱われ、近似され、神経SDEの効率的な訓練を可能にする。
これらのSDEは、与えられたデータセットの基盤となる分布からサンプリングする効率的なチェーンを構築するために使用することができる。
論文 参考訳(メタデータ) (2020-02-21T20:47:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。