論文の概要: Gradient Estimation with Discrete Stein Operators
- arxiv url: http://arxiv.org/abs/2202.09497v1
- Date: Sat, 19 Feb 2022 02:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-22 16:14:27.838831
- Title: Gradient Estimation with Discrete Stein Operators
- Title(参考訳): 離散ステイン演算子による勾配推定
- Authors: Jiaxin Shi, Yuhao Zhou, Jessica Hwang, Michalis K. Titsias, Lester
Mackey
- Abstract要約: 離散分布に対するスタイン演算子に基づく分散化手法を提案する。
提案手法は,同数の関数評価値を持つ最先端推定値よりも,かなり低い分散性を実現する。
- 参考スコア(独自算出の注目度): 41.904073216067445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient estimation -- approximating the gradient of an expectation with
respect to the parameters of a distribution -- is central to the solution of
many machine learning problems. However, when the distribution is discrete,
most common gradient estimators suffer from excessive variance. To improve the
quality of gradient estimation, we introduce a variance reduction technique
based on Stein operators for discrete distributions. We then use this technique
to build flexible control variates for the REINFORCE leave-one-out estimator.
Our control variates can be adapted online to minimize the variance and do not
require extra evaluations of the target function. In benchmark generative
modeling tasks such as training binary variational autoencoders, our gradient
estimator achieves substantially lower variance than state-of-the-art
estimators with the same number of function evaluations.
- Abstract(参考訳): 分布のパラメータに関する期待の勾配を近似するグラディエント推定は、多くの機械学習問題の解の中心である。
しかし、分布が離散である場合、最も一般的な勾配推定器は過度の分散に悩まされる。
勾配推定の品質を向上させるため,離散分布に対するスタイン演算子に基づく分散低減手法を提案する。
次に、この手法を用いて、REINFORCE残高推定のための柔軟な制御変数を構築する。
我々の制御変数は、分散を最小限に抑えるためにオンラインで適応することができ、ターゲット関数の余分な評価を必要としない。
線形変分オートエンコーダの訓練などのベンチマーク生成モデルタスクにおいて、勾配推定器は、同じ数の関数評価を持つ最先端推定器よりもかなり低い分散を実現する。
関連論文リスト
- Revisiting Score Function Estimators for $k$-Subset Sampling [5.464421236280698]
離散フーリエ変換を用いて,$k$-subset分布のスコア関数を効率的に計算する方法を示す。
得られた推定器は、正確なサンプルと偏りのない勾配推定の両方を提供する。
特徴選択の実験は、仮定が弱いにもかかわらず、現在の手法と競合する結果を示している。
論文 参考訳(メタデータ) (2024-07-22T21:26:39Z) - Symmetric Q-learning: Reducing Skewness of Bellman Error in Online
Reinforcement Learning [55.75959755058356]
深層強化学習では、状態や行動の質を評価するために、価値関数を推定することが不可欠である。
最近の研究では、値関数を訓練する際の誤差分布はベルマン作用素の特性のためにしばしば歪むことが示唆されている。
そこで我々は,ゼロ平均分布から発生する合成ノイズを目標値に加え,ガウス誤差分布を生成するSymmetric Q-learning法を提案する。
論文 参考訳(メタデータ) (2024-03-12T14:49:19Z) - Adaptive Perturbation-Based Gradient Estimation for Discrete Latent
Variable Models [28.011868604717726]
複素離散分布に対する適応勾配推定器であるAdaptive IMLEを提案する。
我々の推定器は、他の勾配推定器よりも桁違いに少ないサンプルを必要とする一方で、忠実な推定を行うことができることを示す。
論文 参考訳(メタデータ) (2022-09-11T13:32:39Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - Double Control Variates for Gradient Estimation in Discrete Latent
Variable Models [32.33171301923846]
スコア関数推定器の分散化手法を提案する。
我々の推定器は、他の最先端推定器と比較してばらつきが低いことを示す。
論文 参考訳(メタデータ) (2021-11-09T18:02:42Z) - Storchastic: A Framework for General Stochastic Automatic
Differentiation [9.34612743192798]
グラフの自動微分のための新しいフレームワークであるstorchasticを紹介する。
Storchasticにより、モデラーはサンプリングステップごとに様々な勾配推定方法を選択することができる。
Storchasticは任意の階勾配の推定に偏見がなく、分散減少技術を高階勾配推定に一般化する。
論文 参考訳(メタデータ) (2021-04-01T12:19:54Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z) - SUMO: Unbiased Estimation of Log Marginal Probability for Latent
Variable Models [80.22609163316459]
無限級数のランダム化トランケーションに基づく潜在変数モデルに対して、ログ境界確率の非バイアス推定器とその勾配を導入する。
推定器を用いてトレーニングしたモデルは、同じ平均計算コストに対して、標準的な重要度サンプリングに基づくアプローチよりも優れたテストセット確率を与えることを示す。
論文 参考訳(メタデータ) (2020-04-01T11:49:30Z) - Estimating Gradients for Discrete Random Variables by Sampling without
Replacement [93.09326095997336]
我々は、置換のないサンプリングに基づいて、離散確率変数に対する期待値の偏りのない推定器を導出する。
推定器は3つの異なる推定器のラオ・ブラックウェル化として導出可能であることを示す。
論文 参考訳(メタデータ) (2020-02-14T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。