論文の概要: Radon--Wasserstein Gradient Flows for Interacting-Particle Sampling in High Dimensions
- arxiv url: http://arxiv.org/abs/2602.05227v1
- Date: Thu, 05 Feb 2026 02:38:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.725679
- Title: Radon--Wasserstein Gradient Flows for Interacting-Particle Sampling in High Dimensions
- Title(参考訳): 高次元粒子サンプリングのためのラドン-ワッサースタイン勾配流れ
- Authors: Elias Hess-Childs, Dejan Slepčev, Lantian Xu,
- Abstract要約: Kullback-Leibler分散の勾配流は、正規化定数までしか知られていないターゲット密度への分布を進化させる。
ここでは,KL分散の勾配流と,特性の顕著な組み合わせを紹介する。
彼らは高次元における正確な相互作用粒子近似を認め、ステップごとのコストは粒子の数と次元の両方で線形にスケールする。
- 参考スコア(独自算出の注目度): 0.9940728137241214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient flows of the Kullback--Leibler (KL) divergence, such as the Fokker--Planck equation and Stein Variational Gradient Descent, evolve a distribution toward a target density known only up to a normalizing constant. We introduce new gradient flows of the KL divergence with a remarkable combination of properties: they admit accurate interacting-particle approximations in high dimensions, and the per-step cost scales linearly in both the number of particles and the dimension. These gradient flows are based on new transportation-based Riemannian geometries on the space of probability measures: the Radon--Wasserstein geometry and the related Regularized Radon--Wasserstein (RRW) geometry. We define these geometries using the Radon transform so that the gradient-flow velocities depend only on one-dimensional projections. This yields interacting-particle-based algorithms whose per-step cost follows from efficient Fast Fourier Transform-based evaluation of the required 1D convolutions. We additionally provide numerical experiments that study the performance of the proposed algorithms and compare convergence behavior and quantization. Finally, we prove some theoretical results including well-posedness of the flows and long-time convergence guarantees for the RRW flow.
- Abstract(参考訳): Kullback-Leibler (KL) 分岐の勾配流(Fokker-Planck方程式やStein Variational Gradient Descent)は、正規化定数までしか知られていないターゲット密度への分布を進化させる。
高次元における正確な相互作用粒子近似を認め, 粒子数と寸法の両方において, ステップあたりのコストスケールを線形に表す。
これらの勾配流は、Randon-Wasserstein幾何と関連する正則化Radon-Wasserstein(RRW)幾何という、確率測度の空間上の新しい輸送に基づくリーマン幾何学に基づいている。
勾配流速度が一次元射影のみに依存するように、ラドン変換を用いてこれらの測地を定義する。
これにより、必要な1次元畳み込みの効率的な高速フーリエ変換に基づく評価から、ステップ毎のコストが続く相互作用粒子ベースのアルゴリズムが得られる。
さらに,提案アルゴリズムの性能を解析し,収束挙動と量子化を比較する数値実験を行った。
最後に, RRW流に対する流れの適正性, 長期収束保証などの理論的結果を示す。
関連論文リスト
- Bayesian Circular Regression with von Mises Quasi-Processes [57.88921637944379]
本研究では、円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
後部推論のために,高速ギブズサンプリングに寄与するストラトノビッチ様拡張法を導入する。
本研究では,このモデルを用いて風向予測と走行歩行周期のパーセンテージを関節角度の関数として適用する実験を行った。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - Continuous-time Riemannian SGD and SVRG Flows on Wasserstein Probabilistic Space [21.12668895845275]
我々は、フロー上の勾配を勾配降下に拡張することにより、ワッサーシュタイン空間における連続最適化手法の族を拡張する。
ワッサーシュタイン空間の性質を利用して微分方程式(SDE)を構築し、対応する離散ユークリッド力学を近似する。
最後に、提案した流れの収束速度を確立し、ユークリッド設定で知られている流れと整合する。
論文 参考訳(メタデータ) (2024-01-24T15:35:44Z) - Particle-based Variational Inference with Generalized Wasserstein
Gradient Flow [32.37056212527921]
本稿では一般化ワッサーシュタイン勾配勾配(GWG)と呼ばれるParVIフレームワークを提案する。
GWGが強い収束保証を示すことを示す。
また、収束を加速するためにワッサーシュタイン計量を自動的に選択する適応版も提供する。
論文 参考訳(メタデータ) (2023-10-25T10:05:42Z) - Sampling via Gradient Flows in the Space of Probability Measures [10.892894776497165]
近年の研究では,確率測度空間における勾配流を考慮したアルゴリズムが,アルゴリズム開発のための新たな道を開くことが示されている。
本稿では,これらの勾配流の設計成分を精査することにより,このサンプリング手法に3つの貢献を行う。
論文 参考訳(メタデータ) (2023-10-05T15:20:35Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Variational Transport: A Convergent Particle-BasedAlgorithm for Distributional Optimization [106.70006655990176]
分散最適化問題は機械学習や統計学で広く発生する。
本稿では,変分輸送と呼ばれる粒子に基づく新しいアルゴリズムを提案する。
目的関数がpolyak-Lojasiewicz (PL) (Polyak, 1963) の機能バージョンと滑らかな条件を満たすとき、変分輸送は線形に収束することを示す。
論文 参考訳(メタデータ) (2020-12-21T18:33:13Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。