論文の概要: Branching Stein Variational Gradient Descent for sampling multimodal distributions
- arxiv url: http://arxiv.org/abs/2506.13916v1
- Date: Mon, 16 Jun 2025 18:51:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.212088
- Title: Branching Stein Variational Gradient Descent for sampling multimodal distributions
- Title(参考訳): 多モード分布サンプリングのための分枝ステイン変分勾配染料
- Authors: Isaias Banales, Arturo Jaramillo, Heli Ricalde Guerrero,
- Abstract要約: 本稿では,多モーダル分布を扱うために設計された新しい粒子に基づく変分推定法を提案する。
BSVGD(Branched Stein Variational Gradient Descent)と呼ばれる我々の手法は、状態空間の探索を促進するランダム分岐機構を組み込むことで、古典的なStein Variational Gradient Descent (SVGD)アルゴリズムを拡張している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel particle-based variational inference method designed to work with multimodal distributions. Our approach, referred to as Branched Stein Variational Gradient Descent (BSVGD), extends the classical Stein Variational Gradient Descent (SVGD) algorithm by incorporating a random branching mechanism that encourages the exploration of the state space. In this work, a theoretical guarantee for the convergence in distribution is presented, as well as numerical experiments to validate the suitability of our algorithm. Performance comparisons between the BSVGD and the SVGD are presented using the Wasserstein distance between samples and the corresponding computational times.
- Abstract(参考訳): 本稿では,多モーダル分布を扱うために設計された新しい粒子に基づく変分推定法を提案する。
BSVGD(Branched Stein Variational Gradient Descent)と呼ばれる我々の手法は、状態空間の探索を促進するランダム分岐機構を組み込むことで、古典的なStein Variational Gradient Descent (SVGD)アルゴリズムを拡張している。
本研究では,分布の収束に関する理論的保証と,アルゴリズムの適合性を検証する数値実験について述べる。
BSVGDとSVGDのパフォーマンス比較は、サンプルと対応する計算時間とのワッサーシュタイン距離を用いて行う。
関連論文リスト
- Accelerated Stein Variational Gradient Flow [2.384873896423002]
スタイン変分勾配勾配法(SVGD)は、ターゲット分布からサンプリングするカーネルベースの粒子法である。
確率密度の計量空間における加速勾配流に基づく加速SVGDであるASVGDを紹介する。
粒子の集合を決定論的に進化させる運動量に基づく離散時間サンプリングアルゴリズムを導出する。
論文 参考訳(メタデータ) (2025-03-30T14:37:21Z) - A Stein Gradient Descent Approach for Doubly Intractable Distributions [5.63014864822787]
そこで本研究では,2重に抽出可能な分布を推定するために,モンテカルロ・スタイン変分勾配勾配(MC-SVGD)法を提案する。
提案手法は,後続分布に匹敵する推論性能を提供しながら,既存のアルゴリズムよりもかなりの計算ゲインを達成する。
論文 参考訳(メタデータ) (2024-10-28T13:42:27Z) - On the Trajectory Regularity of ODE-based Diffusion Sampling [79.17334230868693]
拡散に基づく生成モデルは微分方程式を用いて、複素データ分布と抽出可能な事前分布の間の滑らかな接続を確立する。
本稿では,拡散モデルのODEに基づくサンプリングプロセスにおいて,いくつかの興味深い軌道特性を同定する。
論文 参考訳(メタデータ) (2024-05-18T15:59:41Z) - Accelerating Convergence of Stein Variational Gradient Descent via Deep
Unfolding [5.584060970507506]
スタイン変分勾配勾配(SVGD)は、ターゲット分布をサンプリングするために用いられる顕著な粒子ベースの変分勾配推定法である。
本稿では,深層展開(deep Openfolding)と呼ばれる深層学習手法をSVGDに組み込んだ,新しいトレーニング可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-23T06:24:57Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Learning Equivariant Energy Based Models with Equivariant Stein
Variational Gradient Descent [80.73580820014242]
本稿では,確率モデルに対称性を組み込むことにより,確率密度の効率的なサンプリングと学習の問題に焦点をあてる。
まず、等変シュタイン変分勾配Descentアルゴリズムを導入する。これは、対称性を持つ密度からサンプリングするスタインの同一性に基づく同変サンプリング法である。
我々はエネルギーベースモデルのトレーニングを改善し、スケールアップする新しい方法を提案する。
論文 参考訳(メタデータ) (2021-06-15T01:35:17Z) - Stein Variational Inference for Discrete Distributions [70.19352762933259]
離散分布を等価なピースワイズ連続分布に変換する単純な一般フレームワークを提案する。
提案手法は,ギブスサンプリングや不連続ハミルトニアンモンテカルロといった従来のアルゴリズムよりも優れている。
我々は,この手法がバイナライズニューラルネットワーク(BNN)のアンサンブルを学習するための有望なツールであることを実証した。
さらに、そのような変換は、勾配のないカーネル化されたStein差分に簡単に適用でき、離散分布の良性(GoF)テストを実行することができる。
論文 参考訳(メタデータ) (2020-03-01T22:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。