論文の概要: Particle Semi-Implicit Variational Inference
- arxiv url: http://arxiv.org/abs/2407.00649v1
- Date: Sun, 30 Jun 2024 10:21:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 02:07:11.784647
- Title: Particle Semi-Implicit Variational Inference
- Title(参考訳): 粒子半インプシット変分推論
- Authors: Jen Ning Lim, Adam M. Johansen,
- Abstract要約: 半単純変分推論(SIVI)は、カーネルと混合分布を利用して変分族を表現する。
既存のSIVI法は、暗黙の分布を用いて混合分布をパラメータ化し、難解な変動密度をもたらす。
本研究では, 最適混合分布を近似する実験手法を用いて, PVI (Particle Variational Inference) と呼ばれるSIVIの新しい手法を提案する。
- 参考スコア(独自算出の注目度): 2.555222031881788
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Semi-implicit variational inference (SIVI) enriches the expressiveness of variational families by utilizing a kernel and a mixing distribution to hierarchically define the variational distribution. Existing SIVI methods parameterize the mixing distribution using implicit distributions, leading to intractable variational densities. As a result, directly maximizing the evidence lower bound (ELBO) is not possible and so, they resort to either: optimizing bounds on the ELBO, employing costly inner-loop Markov chain Monte Carlo runs, or solving minimax objectives. In this paper, we propose a novel method for SIVI called Particle Variational Inference (PVI) which employs empirical measures to approximate the optimal mixing distributions characterized as the minimizer of a natural free energy functional via a particle approximation of an Euclidean--Wasserstein gradient flow. This approach means that, unlike prior works, PVI can directly optimize the ELBO; furthermore, it makes no parametric assumption about the mixing distribution. Our empirical results demonstrate that PVI performs favourably against other SIVI methods across various tasks. Moreover, we provide a theoretical analysis of the behaviour of the gradient flow of a related free energy functional: establishing the existence and uniqueness of solutions as well as propagation of chaos results.
- Abstract(参考訳): 半単純変分推論(SIVI)は、カーネルと混合分布を利用して変分分布を階層的に定義することにより、変分族の表現性を豊かにする。
既存のSIVI法は、暗黙の分布を用いて混合分布をパラメータ化し、難解な変動密度をもたらす。
その結果、エビデンスローバウンド(ELBO)を直接最大化することは不可能であり、ELBO上のバウンドの最適化、コストのかかるインナーループのマルコフ連鎖モンテカルロのランの採用、あるいはミニマックスの目的の解決のいずれかを頼りにしている。
本稿では, 自然自由エネルギー関数の最小値として特徴づけられる最適混合分布をユークリッド-ワッサーシュタイン勾配流の粒子近似により近似する実験的な手法を用いて, SIVI の粒子変分推論 (PVI) を提案する。
このアプローチは、以前の研究とは異なり、PVIはELBOを直接最適化することができ、さらに混合分布に関するパラメトリックな仮定をしないことを意味する。
実験の結果,PVIは他のSIVI手法に対して,様々なタスクで好適に機能することが示された。
さらに, 関連する自由エネルギー関数の勾配流の挙動を理論的に解析し, 解の存在と特異性を確立するとともに, カオス結果の伝播を行う。
関連論文リスト
- Semi-Implicit Functional Gradient Flow [30.32233517392456]
近似系として摂動粒子を用いる関数勾配ParVI法を提案する。
対応する関数勾配流は、スコアマッチングによって推定できるが、強い理論的収束を保証する。
論文 参考訳(メタデータ) (2024-10-23T15:00:30Z) - NETS: A Non-Equilibrium Transport Sampler [15.58993313831079]
我々は、Non-Equilibrium Transport Sampler (NETS)と呼ばれるアルゴリズムを提案する。
NETSはJarzynskiの平等に基づいて、重要サンプリング(AIS)の亜種と見なすことができる。
このドリフトは、様々な目的関数の最小化であり、全て偏りのない方法で推定できることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:35:38Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Semi-Implicit Variational Inference via Score Matching [9.654640791869431]
半単純変分推論(SIVI)は、変分家族の表現性を大いに豊かにする。
現在のSIVIアプローチでは、サロゲートエビデンスローバウンド(ELBO)を使用したり、高価なインナーループMCMCをトレーニングに使用する場合が多い。
スコアマッチングによる代替学習目標に基づくSIVI-SMを提案する。
論文 参考訳(メタデータ) (2023-08-19T13:32:54Z) - Sampling with Mollified Interaction Energy Descent [57.00583139477843]
モーフィファイド相互作用エネルギー降下(MIED)と呼ばれる新しい最適化に基づくサンプリング手法を提案する。
MIEDは、モル化相互作用エネルギー(MIE)と呼ばれる確率測度に関する新しいクラスのエネルギーを最小化する
我々は,制約のないサンプリング問題に対して,我々のアルゴリズムがSVGDのような既存の粒子ベースアルゴリズムと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-10-24T16:54:18Z) - Interpolating between sampling and variational inference with infinite
stochastic mixtures [6.021787236982659]
サンプリングと変分推論(VI)は相補的な強度を持つ近似推論の方法の2つの大きなファミリーである。
本稿では,サンプリングとVIの双方の強度のバランスをとる中間アルゴリズムを構築するためのフレームワークを開発する。
この研究は、サンプリングとVIの相補的な強みを組み合わせた、非常に柔軟で単純な推論手法の族への第一歩である。
論文 参考訳(メタデータ) (2021-10-18T20:50:06Z) - Loss function based second-order Jensen inequality and its application
to particle variational inference [112.58907653042317]
粒子変分推論(PVI)は、後部分布の実験的近似としてモデルのアンサンブルを用いる。
PVIは、最適化されたモデルの多様性を保証するために、各モデルを反発力で反復的に更新する。
我々は,新たな一般化誤差を導出し,モデルの多様性を高めて低減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T12:13:51Z) - Generative Particle Variational Inference via Estimation of Functional
Gradients [15.370890881254066]
本研究では, 後方分布から標本を推定する新しい学習法を提案する。
生成型ParVI (GPVI) 手法は, 生成型サンプリング装置の柔軟性を提供しながら, ParVI 法の性能を維持している。
論文 参考訳(メタデータ) (2021-03-01T20:29:41Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - Variational Transport: A Convergent Particle-BasedAlgorithm for Distributional Optimization [106.70006655990176]
分散最適化問題は機械学習や統計学で広く発生する。
本稿では,変分輸送と呼ばれる粒子に基づく新しいアルゴリズムを提案する。
目的関数がpolyak-Lojasiewicz (PL) (Polyak, 1963) の機能バージョンと滑らかな条件を満たすとき、変分輸送は線形に収束することを示す。
論文 参考訳(メタデータ) (2020-12-21T18:33:13Z) - Stochastic Normalizing Flows [52.92110730286403]
微分方程式(SDE)を用いた最大推定と変分推論のための正規化フロー(VI)を導入する。
粗い経路の理論を用いて、基礎となるブラウン運動は潜在変数として扱われ、近似され、神経SDEの効率的な訓練を可能にする。
これらのSDEは、与えられたデータセットの基盤となる分布からサンプリングする効率的なチェーンを構築するために使用することができる。
論文 参考訳(メタデータ) (2020-02-21T20:47:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。