論文の概要: Sequential Monte Carlo approximations of Wasserstein--Fisher--Rao gradient flows
- arxiv url: http://arxiv.org/abs/2506.05905v1
- Date: Fri, 06 Jun 2025 09:24:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 21:34:56.765726
- Title: Sequential Monte Carlo approximations of Wasserstein--Fisher--Rao gradient flows
- Title(参考訳): Wasserstein--Fisher--Rao勾配流の連続モンテカルロ近似
- Authors: Francesca R. Crucinio, Sahani Pathiraja,
- Abstract要約: 我々は、Kulback--Leibler分散の最小解であるいくつかの偏微分方程式を、$pi$から考える。
そこで我々は,Wasserstein-Fisher--Rao Flow of the Kullback--Leibler divergenceを近似する新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of sampling from a probability distribution $\pi$. It is well known that this can be written as an optimisation problem over the space of probability distribution in which we aim to minimise the Kullback--Leibler divergence from $\pi$. We consider several partial differential equations (PDEs) whose solution is a minimiser of the Kullback--Leibler divergence from $\pi$ and connect them to well-known Monte Carlo algorithms. We focus in particular on PDEs obtained by considering the Wasserstein--Fisher--Rao geometry over the space of probabilities and show that these lead to a natural implementation using importance sampling and sequential Monte Carlo. We propose a novel algorithm to approximate the Wasserstein--Fisher--Rao flow of the Kullback--Leibler divergence which empirically outperforms the current state-of-the-art. We study tempered versions of these PDEs obtained by replacing the target distribution with a geometric mixture of initial and target distribution and show that these do not lead to a convergence speed up.
- Abstract(参考訳): 確率分布$\pi$からサンプリングする問題を考察する。
これは、Kulback-Leibler分散を$\pi$から最小化することを目指す確率分布空間上の最適化問題として記述できることはよく知られている。
特に、確率空間上のワッサーシュタイン-フィッシャー-ラオ幾何学を考慮して得られるPDEに注目し、これらが重要サンプリングとシーケンシャルモンテカルロを用いた自然な実装につながることを示す。
本稿では,現在の最先端技術より経験的に優れる,Wasserstein-Fisher--Rao Flow of the Kullback--Leibler divergenceを近似する新しいアルゴリズムを提案する。
対象分布を初期分布と目標分布の幾何学的混合に置き換えて得られたこれらのPDEの誘電バージョンについて検討し、収束速度を向上しないことを示す。
関連論文リスト
- A Stein Gradient Descent Approach for Doubly Intractable Distributions [5.63014864822787]
そこで本研究では,2重に抽出可能な分布を推定するために,モンテカルロ・スタイン変分勾配勾配(MC-SVGD)法を提案する。
提案手法は,後続分布に匹敵する推論性能を提供しながら,既存のアルゴリズムよりもかなりの計算ゲインを達成する。
論文 参考訳(メタデータ) (2024-10-28T13:42:27Z) - Stochastic variance-reduced Gaussian variational inference on the Bures-Wasserstein manifold [4.229248343585333]
本稿では,バーレス=ヴァッサーシュタイン空間の最適化のための新しい分散再現型推定器を提案する。
この推定器は、興味のあるシナリオにおけるモンテカルロ推定器よりも分散が小さいことを示す。
提案した推定器は以前のビュール=ヴァッサーシュタイン法よりも次数次改善が得られることを示す。
論文 参考訳(メタデータ) (2024-10-03T13:55:49Z) - Noise-Free Sampling Algorithms via Regularized Wasserstein Proximals [3.4240632942024685]
ポテンシャル関数が支配する分布からサンプリングする問題を考察する。
本研究は, 決定論的な楽譜に基づくMCMC法を提案し, 粒子に対する決定論的進化をもたらす。
論文 参考訳(メタデータ) (2023-08-28T23:51:33Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Stochastic Saddle-Point Optimization for Wasserstein Barycenters [69.68068088508505]
オンラインデータストリームによって生成される有限個の点からなるランダムな確率測度に対する人口推定バリセンタ問題を考察する。
本稿では,この問題の構造を用いて,凸凹型サドル点再構成を行う。
ランダム確率測度の分布が離散的な場合、最適化アルゴリズムを提案し、その複雑性を推定する。
論文 参考訳(メタデータ) (2020-06-11T19:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。