論文の概要: SVGD as a kernelized Wasserstein gradient flow of the chi-squared
divergence
- arxiv url: http://arxiv.org/abs/2006.02509v1
- Date: Wed, 3 Jun 2020 20:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:47:41.891957
- Title: SVGD as a kernelized Wasserstein gradient flow of the chi-squared
divergence
- Title(参考訳): カイ二乗発散の核化ワッサーシュタイン勾配流としてのSVGD
- Authors: Sinho Chewi, Thibaut Le Gouic, Chen Lu, Tyler Maunu, Philippe Rigollet
- Abstract要約: SVGD(Stein Variational Gradient Descent)は、最適輸送の幾何学において、クルバック・リーブラー分流の核化勾配流としてしばしば記述される。
SVGDはポアンカーの不等式のように弱い条件下で一様指数的エルゴード性を示す。
対象密度に関連するラプラシアン作用素のスペクトル分解から実装できるラプラシアン調整ワッサーシュタイン勾配蛍光(Laplacian Adjusted Wasserstein Gradient Descent, LWGD)を提案する。
- 参考スコア(独自算出の注目度): 16.864125490806387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stein Variational Gradient Descent (SVGD), a popular sampling algorithm, is
often described as the kernelized gradient flow for the Kullback-Leibler
divergence in the geometry of optimal transport. We introduce a new perspective
on SVGD that instead views SVGD as the (kernelized) gradient flow of the
chi-squared divergence which, we show, exhibits a strong form of uniform
exponential ergodicity under conditions as weak as a Poincar\'e inequality.
This perspective leads us to propose an alternative to SVGD, called Laplacian
Adjusted Wasserstein Gradient Descent (LAWGD), that can be implemented from the
spectral decomposition of the Laplacian operator associated with the target
density. We show that LAWGD exhibits strong convergence guarantees and good
practical performance.
- Abstract(参考訳): 一般的なサンプリングアルゴリズムであるStein Variational Gradient Descent (SVGD) は、最適な輸送の幾何学において、クルバック・リーバーの発散の勾配流としてしばしば説明される。
本稿では,svgd をchi-squared 発散の(カーネル化された)勾配流と見なす代わりに,poincar\'e 不等式のような弱条件下での均一な指数的エルゴディシティの強い形態を示す,svgd の新しい視点を紹介する。
この観点から、ターゲット密度に付随するラプラシアン作用素のスペクトル分解から実装できるラプラシアン調整ワッサーシュタイン勾配蛍光(Laplacian Adjusted Wasserstein Gradient Descent,LAWGD)と呼ばれるSVGDの代替案を提案する。
LAWGDは, コンバージェンス保証が強く, 実用性も良好であることを示す。
関連論文リスト
- Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - Particle-based Variational Inference with Generalized Wasserstein
Gradient Flow [32.37056212527921]
本稿では一般化ワッサーシュタイン勾配勾配(GWG)と呼ばれるParVIフレームワークを提案する。
GWGが強い収束保証を示すことを示す。
また、収束を加速するためにワッサーシュタイン計量を自動的に選択する適応版も提供する。
論文 参考訳(メタデータ) (2023-10-25T10:05:42Z) - Augmented Message Passing Stein Variational Gradient Descent [3.5788754401889014]
収束過程における有限粒子の等方性特性について検討する。
すべての粒子は特定の範囲内で粒子中心の周りに集まる傾向にある。
提案アルゴリズムは, 種々のベンチマーク問題における分散崩壊問題を克服し, 良好な精度を実現する。
論文 参考訳(メタデータ) (2023-05-18T01:13:04Z) - Grassmann Stein Variational Gradient Descent [3.644031721554146]
スタイン変分勾配降下(SVGD)は、マルコフ連鎖モンテカルロの効率的な代替となる決定論的粒子推論アルゴリズムである。
近年の進歩は、スコア関数とデータの両方を実際の行に投影してこの問題に対処することを提唱している。
任意の次元部分空間への射影を可能にする代替アプローチとして、グラスマンシュタイン変分勾配勾配(GSVGD)を提案する。
論文 参考訳(メタデータ) (2022-02-07T15:36:03Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - Kernel Stein Generative Modeling [68.03537693810972]
グラディエント・ランゲヴィン・ダイナミクス(SGLD)は高次元および複雑なデータ分布に関するエネルギーモデルによる印象的な結果を示す。
Stein Variational Gradient Descent (SVGD) は、与えられた分布を近似するために一組の粒子を反復的に輸送する決定論的サンプリングアルゴリズムである。
雑音条件付きカーネルSVGD(NCK-SVGD)を提案する。
論文 参考訳(メタデータ) (2020-07-06T21:26:04Z) - A Non-Asymptotic Analysis for Stein Variational Gradient Descent [44.30569261307296]
定常変分勾配Descentアルゴリズムに対する新しい有限時間解析法を提案する。
アルゴリズムが各反復の目的を減少させることを示す降下補題を提供する。
また, SVGDの実用的実装に対応する有限粒子系の収束結果を, 集団バージョンに反映する。
論文 参考訳(メタデータ) (2020-06-17T12:01:33Z) - Stein Variational Inference for Discrete Distributions [70.19352762933259]
離散分布を等価なピースワイズ連続分布に変換する単純な一般フレームワークを提案する。
提案手法は,ギブスサンプリングや不連続ハミルトニアンモンテカルロといった従来のアルゴリズムよりも優れている。
我々は,この手法がバイナライズニューラルネットワーク(BNN)のアンサンブルを学習するための有望なツールであることを実証した。
さらに、そのような変換は、勾配のないカーネル化されたStein差分に簡単に適用でき、離散分布の良性(GoF)テストを実行することができる。
論文 参考訳(メタデータ) (2020-03-01T22:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。