論文の概要: Double Control Variates for Gradient Estimation in Discrete Latent
Variable Models
- arxiv url: http://arxiv.org/abs/2111.05300v1
- Date: Tue, 9 Nov 2021 18:02:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 14:40:53.414209
- Title: Double Control Variates for Gradient Estimation in Discrete Latent
Variable Models
- Title(参考訳): 離散潜在変数モデルにおける勾配推定のための二重制御変数
- Authors: Michalis K. Titsias, Jiaxin Shi
- Abstract要約: スコア関数推定器の分散化手法を提案する。
我々の推定器は、他の最先端推定器と比較してばらつきが低いことを示す。
- 参考スコア(独自算出の注目度): 32.33171301923846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic gradient-based optimisation for discrete latent variable models is
challenging due to the high variance of gradients. We introduce a variance
reduction technique for score function estimators that makes use of double
control variates. These control variates act on top of a main control variate,
and try to further reduce the variance of the overall estimator. We develop a
double control variate for the REINFORCE leave-one-out estimator using Taylor
expansions. For training discrete latent variable models, such as variational
autoencoders with binary latent variables, our approach adds no extra
computational cost compared to standard training with the REINFORCE
leave-one-out estimator. We apply our method to challenging high-dimensional
toy examples and training variational autoencoders with binary latent
variables. We show that our estimator can have lower variance compared to other
state-of-the-art estimators.
- Abstract(参考訳): 離散潜在変数モデルの確率的勾配に基づく最適化は、勾配の分散度が高いため困難である。
二重制御変数を用いたスコア関数推定器の分散低減手法を提案する。
これらの制御変数は主制御変数の上に作用し、全体的な推定値のばらつきをさらに減らそうとする。
テイラー展開を用いたREINFORCE残差推定器の二重制御変数を開発する。
バイナリ潜時変数を持つ変分オートエンコーダなどの離散潜時変数モデルのトレーニングでは,REINFORCEの残差推定器を用いた標準トレーニングと比較して,計算コストが増大しない。
提案手法を高次元玩具の例に挑戦し,二変数潜在変数を用いた変分オートエンコーダの訓練に応用する。
我々の推定器は、他の最先端推定器と比較してばらつきが低いことを示す。
関連論文リスト
- Gradient Estimation for Binary Latent Variables via Gradient Variance
Clipping [6.234350105794441]
勾配推定はしばしば、離散潜在変数を持つ生成モデルに適合するために必要である。
DisARMや他の推定器は、パラメータ空間の境界付近でばらつきを爆発させる可能性がある。
パラメータ空間の境界における分散を小さくする勾配推定器 textitbitflip-1 を提案する。
論文 参考訳(メタデータ) (2022-08-12T05:37:52Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - Gradient Estimation with Discrete Stein Operators [44.64146470394269]
離散分布に対するスタイン演算子に基づく分散化手法を提案する。
提案手法は,同数の関数評価値を持つ最先端推定値よりも,かなり低い分散性を実現する。
論文 参考訳(メタデータ) (2022-02-19T02:22:23Z) - CARMS: Categorical-Antithetic-REINFORCE Multi-Sample Gradient Estimator [60.799183326613395]
本稿では, 相互に負に相関した複数のサンプルに基づく分類的確率変数の非バイアス推定器を提案する。
CARMSは、ReINFORCEとコプラベースのサンプリングを組み合わせることで、重複サンプルを回避し、その分散を低減し、重要サンプリングを使用して推定器を偏りなく維持する。
我々は、生成的モデリングタスクと構造化された出力予測タスクに基づいて、いくつかのベンチマークデータセット上でCARMSを評価し、強力な自己制御ベースラインを含む競合する手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-10-26T20:14:30Z) - VarGrad: A Low-Variance Gradient Estimator for Variational Inference [9.108412698936105]
我々は、VarGradが、離散VAE上の他の最先端推定器と比較して、トレードオフとトレードオフに有利なばらつきを提供することを示す。
論文 参考訳(メタデータ) (2020-10-20T16:46:01Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z) - SUMO: Unbiased Estimation of Log Marginal Probability for Latent
Variable Models [80.22609163316459]
無限級数のランダム化トランケーションに基づく潜在変数モデルに対して、ログ境界確率の非バイアス推定器とその勾配を導入する。
推定器を用いてトレーニングしたモデルは、同じ平均計算コストに対して、標準的な重要度サンプリングに基づくアプローチよりも優れたテストセット確率を与えることを示す。
論文 参考訳(メタデータ) (2020-04-01T11:49:30Z) - Estimating Gradients for Discrete Random Variables by Sampling without
Replacement [93.09326095997336]
我々は、置換のないサンプリングに基づいて、離散確率変数に対する期待値の偏りのない推定器を導出する。
推定器は3つの異なる推定器のラオ・ブラックウェル化として導出可能であることを示す。
論文 参考訳(メタデータ) (2020-02-14T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。