論文の概要: Improved Stein Variational Gradient Descent with Importance Weights
- arxiv url: http://arxiv.org/abs/2210.00462v1
- Date: Sun, 2 Oct 2022 08:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 18:06:48.300748
- Title: Improved Stein Variational Gradient Descent with Importance Weights
- Title(参考訳): 重要重量によるステイン変分勾配明度の改善
- Authors: Lukang Sun and Peter Richt\'arik
- Abstract要約: Stein Variational Gradient Descent (algnameSVGD) は、機械学習タスクでよく使われるサンプリングアルゴリズムである。
そこで我々は, algname$beta$-SVGD という名の新しい手法を考案し, 重み付けによる algnameSVGD の強化を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stein Variational Gradient Descent~(\algname{SVGD}) is a popular sampling
algorithm used in various machine learning tasks. It is well known that
\algname{SVGD} arises from a discretization of the kernelized gradient flow of
the Kullback-Leibler divergence $D_{KL}\left(\cdot\mid\pi\right)$, where $\pi$
is the target distribution. In this work, we propose to enhance \algname{SVGD}
via the introduction of {\em importance weights}, which leads to a new method
for which we coin the name \algname{$\beta$-SVGD}. In the continuous time and
infinite particles regime, the time for this flow to converge to the
equilibrium distribution $\pi$, quantified by the Stein Fisher information,
depends on $\rho_0$ and $\pi$ very weakly. This is very different from the
kernelized gradient flow of Kullback-Leibler divergence, whose time complexity
depends on $D_{KL}\left(\rho_0\mid\pi\right)$. Under certain assumptions, we
provide a descent lemma for the population limit \algname{$\beta$-SVGD}, which
covers the descent lemma for the population limit \algname{SVGD} when $\beta\to
0$. We also illustrate the advantages of \algname{$\beta$-SVGD} over
\algname{SVGD} by simple experiments.
- Abstract(参考訳): Stein Variational Gradient Descent~(\algname{SVGD})は、機械学習タスクで一般的なサンプリングアルゴリズムである。
\algname{SVGD} は Kullback-Leibler の発散の核化勾配フローの離散化$D_{KL}\left(\cdot\mid\pi\right)$から生じることが知られている。
そこで本研究では,<algname{$\beta$-SVGD} と命名する新たな手法である<algname{$\beta$-SVGD} を導入することにより,<algname{SVGD} を拡大することを提案する。
連続時間と無限粒子状態において、スタイン・フィッシャーの情報によって定量化された平衡分布 $\pi$ にこの流れが収束する時間は、$\rho_0$ と $\pi$ に非常に弱い。
これは、Kulback-Leibler分散の核化勾配フローとは大きく異なり、時間複雑性は$D_{KL}\left(\rho_0\mid\pi\right)$に依存する。
ある仮定の下では、人口制限 \algname{$\beta$-SVGD} に対する降下補題を提供し、$\beta\to 0$ のとき、人口制限 \algname{SVGD} に対する降下補題をカバーする。
また、簡単な実験により、\algname{$\beta$-svgd} に対する \algname{svgd} の利点を示す。
関連論文リスト
- Stein Variational Evolution Strategies [17.315583101484147]
非正規化確率分布から高効率なサンプリング法として, SVGD法(Stein Variational Gradient Descent)がある。
既存の SVGD の勾配のないバージョンは、単純なモンテカルロ近似や、サロゲート分布からの勾配を利用しており、どちらも制限がある。
SVGDのステップと進化戦略(ES)の更新を組み合わせて、勾配のないスタイン変分推論を改善する。
論文 参考訳(メタデータ) (2024-10-14T11:24:41Z) - Improved Algorithm for Adversarial Linear Mixture MDPs with Bandit
Feedback and Unknown Transition [71.33787410075577]
線形関数近似,未知遷移,および逆損失を用いた強化学習について検討した。
我々は高い確率で$widetildeO(dsqrtHS3K + sqrtHSAK)$ regretを実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T15:03:50Z) - Provably Fast Finite Particle Variants of SVGD via Virtual Particle
Stochastic Approximation [9.065034043031668]
SVGD(Stein Variational Gradient Descent)は、相互作用する粒子系をターゲット分布からおよそサンプルにシミュレートする一般的な変分推論である。
仮想粒子の概念を導入し、確率測度空間における集団限界ダイナミクスの新たな近似を開発する。
VP-SVGD と GB-SVGD によって出力される$n$パーティクルは、バッチサイズ$K$で$T$のステップで実行されるが、ターゲットに対する Kernel Stein Disrepancy が少なくとも $Oleft(tfrac) であるような分布からの i.i.d サンプルと同程度であることを示す。
論文 参考訳(メタデータ) (2023-05-27T19:21:28Z) - Depth Dependence of $\mu$P Learning Rates in ReLU MLPs [72.14317069090407]
我々は、最大更新(mu$P)学習率の$n$と$L$に依存することを研究する。
我々は、$L3/2.$のように、$L$の非自明な依存があることを発見した。
論文 参考訳(メタデータ) (2023-05-13T01:10:49Z) - Horizon-Free and Variance-Dependent Reinforcement Learning for Latent
Markov Decision Processes [62.90204655228324]
我々は,後期マルコフ決定過程(LMDP)における強化学習(RL)の文脈を考慮した後悔の最小化について検討した。
我々は,モデル最適化と値最適化の両手法でインスタンス化できる,新しいモデルベースアルゴリズムフレームワークを設計する。
論文 参考訳(メタデータ) (2022-10-20T21:32:01Z) - A Note on the Convergence of Mirrored Stein Variational Gradient Descent
under $(L_0,L_1)-$Smoothness Condition [0.0]
我々は、ミロレッドスタイン変分法(MSVGD)の集団限界に対する降下補題を確立する。
この降下補題はMSVGDの経路情報に頼るのではなく、ミラー分布 $nablaPsi_#piproptoexp(-V)$ に対する単純な仮定に依存する。
論文 参考訳(メタデータ) (2022-06-20T11:04:18Z) - Convergence of Stein Variational Gradient Descent under a Weaker
Smoothness Condition [0.0]
確率分布からサンプリングするLangevin型アルゴリズムの代用として,Stein Variational Gradient Descent (SVGD) が重要である。
既存のランゲヴィン型アルゴリズムとSVGDの理論では、ポテンシャル関数 $V$ はしばしば $L$-smooth と仮定される。
論文 参考訳(メタデータ) (2022-06-01T14:08:35Z) - Variance-Aware Confidence Set: Variance-Dependent Bound for Linear
Bandits and Horizon-Free Bound for Linear Mixture MDP [76.94328400919836]
線形バンドイットと線形混合決定プロセス(mdp)に対する分散認識信頼セットの構築方法を示す。
線形バンドイットに対しては、$d を特徴次元とする$widetildeo(mathrmpoly(d)sqrt1 + sum_i=1ksigma_i2) が成り立つ。
線形混合 MDP に対し、$widetildeO(mathrmpoly(d)sqrtK)$ regret bound を得る。
論文 参考訳(メタデータ) (2021-01-29T18:57:52Z) - Kernel Stein Generative Modeling [68.03537693810972]
グラディエント・ランゲヴィン・ダイナミクス(SGLD)は高次元および複雑なデータ分布に関するエネルギーモデルによる印象的な結果を示す。
Stein Variational Gradient Descent (SVGD) は、与えられた分布を近似するために一組の粒子を反復的に輸送する決定論的サンプリングアルゴリズムである。
雑音条件付きカーネルSVGD(NCK-SVGD)を提案する。
論文 参考訳(メタデータ) (2020-07-06T21:26:04Z) - A Non-Asymptotic Analysis for Stein Variational Gradient Descent [44.30569261307296]
定常変分勾配Descentアルゴリズムに対する新しい有限時間解析法を提案する。
アルゴリズムが各反復の目的を減少させることを示す降下補題を提供する。
また, SVGDの実用的実装に対応する有限粒子系の収束結果を, 集団バージョンに反映する。
論文 参考訳(メタデータ) (2020-06-17T12:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。