論文の概要: Pathwise Gradient Variance Reduction with Control Variates in Variational Inference
- arxiv url: http://arxiv.org/abs/2410.05753v1
- Date: Tue, 8 Oct 2024 07:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 13:09:48.724972
- Title: Pathwise Gradient Variance Reduction with Control Variates in Variational Inference
- Title(参考訳): 変分推論における制御変数による経路勾配変動の低減
- Authors: Kenyon Ng, Susan Wei,
- Abstract要約: ベイズ深層学習における変分推論は、閉形式解を持たない予想の勾配を計算することを伴うことが多い。
これらの場合、パスワイズとスコア関数勾配推定器が最も一般的なアプローチである。
最近の研究は、経路勾配推定器でさえ分散還元の恩恵を受けることを示唆している。
- 参考スコア(独自算出の注目度): 2.1638817206926855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational inference in Bayesian deep learning often involves computing the gradient of an expectation that lacks a closed-form solution. In these cases, pathwise and score-function gradient estimators are the most common approaches. The pathwise estimator is often favoured for its substantially lower variance compared to the score-function estimator, which typically requires variance reduction techniques. However, recent research suggests that even pathwise gradient estimators could benefit from variance reduction. In this work, we review existing control-variates-based variance reduction methods for pathwise gradient estimators to assess their effectiveness. Notably, these methods often rely on integrand approximations and are applicable only to simple variational families. To address this limitation, we propose applying zero-variance control variates to pathwise gradient estimators. This approach offers the advantage of requiring minimal assumptions about the variational distribution, other than being able to sample from it.
- Abstract(参考訳): ベイズ深層学習における変分推論は、閉形式解を持たない予想の勾配を計算することを伴うことが多い。
これらの場合、パスワイズとスコア関数勾配推定器が最も一般的なアプローチである。
パスワイズ推定器は、通常分散低減技術を必要とするスコア関数推定器に比べて、かなり低い分散のために好まれる。
しかし、最近の研究では、経路勾配推定器でさえ分散還元の恩恵を受けることが示唆されている。
本研究では,経路勾配推定器の制御変数に基づく分散低減手法について検討し,その有効性を検証した。
特に、これらの手法は積分近似に頼り、単純な変分族にのみ適用できる。
この制限に対処するために、無分散制御を経路勾配推定器に適用することを提案する。
このアプローチは、変分分布に関する最小限の仮定を必要とするという利点を提供する。
関連論文リスト
- Gradients should stay on Path: Better Estimators of the Reverse- and
Forward KL Divergence for Normalizing Flows [4.830811539001643]
本稿では,任意の非可逆正規化フローに対して,逆と前方のKulback-Leibler分散の経路勾配を推定するアルゴリズムを提案する。
結果として得られる経路勾配推定器は、実装が簡単で、分散が小さく、訓練の収束が早くなるだけでなく、全体の近似結果も良くなる。
論文 参考訳(メタデータ) (2022-07-17T16:27:41Z) - Path-Gradient Estimators for Continuous Normalizing Flows [4.830811539001643]
近年の研究では、単純変分ガウス分布の経路勾配推定器が確立されている。
連続正規化フローのより表現力の高い変動族に対する経路勾配推定器を提案する。
論文 参考訳(メタデータ) (2022-06-17T21:25:06Z) - Gradient Estimation with Discrete Stein Operators [44.64146470394269]
離散分布に対するスタイン演算子に基づく分散化手法を提案する。
提案手法は,同数の関数評価値を持つ最先端推定値よりも,かなり低い分散性を実現する。
論文 参考訳(メタデータ) (2022-02-19T02:22:23Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Coordinate-wise Control Variates for Deep Policy Gradients [23.24910014825916]
ニューラルネットポリシーに対するベクトル値ベースラインの効果は未解明である。
従来のスカラー値ベースラインよりも低分散性が得られることを示す。
論文 参考訳(メタデータ) (2021-07-11T07:36:01Z) - VarGrad: A Low-Variance Gradient Estimator for Variational Inference [9.108412698936105]
我々は、VarGradが、離散VAE上の他の最先端推定器と比較して、トレードオフとトレードオフに有利なばらつきを提供することを示す。
論文 参考訳(メタデータ) (2020-10-20T16:46:01Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z) - A Study of Gradient Variance in Deep Learning [56.437755740715396]
階層化サンプリングによる平均ミニバッチ勾配のばらつきを最小化する手法であるグラディエントクラスタリングを導入する。
我々は、一般的なディープラーニングベンチマークの勾配分散を測定し、一般的な仮定に反して、トレーニング中に勾配分散が増加することを観察する。
論文 参考訳(メタデータ) (2020-07-09T03:23:10Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z) - Scalable Control Variates for Monte Carlo Methods via Stochastic
Optimization [62.47170258504037]
本稿では,制御,カーネル,ニューラルネットワークを用いた既存のアプローチを包含し,一般化するフレームワークを提案する。
新たな理論的結果は、達成可能な分散還元に関する洞察を与えるために提示され、ベイズ推定への応用を含む経験的評価が支持される。
論文 参考訳(メタデータ) (2020-06-12T22:03:25Z) - Estimating Gradients for Discrete Random Variables by Sampling without
Replacement [93.09326095997336]
我々は、置換のないサンプリングに基づいて、離散確率変数に対する期待値の偏りのない推定器を導出する。
推定器は3つの異なる推定器のラオ・ブラックウェル化として導出可能であることを示す。
論文 参考訳(メタデータ) (2020-02-14T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。