論文の概要: AR-DAE: Towards Unbiased Neural Entropy Gradient Estimation
- arxiv url: http://arxiv.org/abs/2006.05164v1
- Date: Tue, 9 Jun 2020 10:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 13:52:10.388035
- Title: AR-DAE: Towards Unbiased Neural Entropy Gradient Estimation
- Title(参考訳): AR-DAE:Unbiased Neural Entropy Gradient Estimationを目指して
- Authors: Jae Hyun Lim, Aaron Courville, Christopher Pal, Chin-Wei Huang
- Abstract要約: ログ密度関数の勾配を近似するアモルト化残留復調オートエンコーダ(AR-DAE)を提案する。
我々は,変分オートエンコーダを用いた密度推定とソフトアクター・クリティックによる連続制御における最先端性能を示す。
- 参考スコア(独自算出の注目度): 8.24001702529974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entropy is ubiquitous in machine learning, but it is in general intractable
to compute the entropy of the distribution of an arbitrary continuous random
variable. In this paper, we propose the amortized residual denoising
autoencoder (AR-DAE) to approximate the gradient of the log density function,
which can be used to estimate the gradient of entropy. Amortization allows us
to significantly reduce the error of the gradient approximator by approaching
asymptotic optimality of a regular DAE, in which case the estimation is in
theory unbiased. We conduct theoretical and experimental analyses on the
approximation error of the proposed method, as well as extensive studies on
heuristics to ensure its robustness. Finally, using the proposed gradient
approximator to estimate the gradient of entropy, we demonstrate
state-of-the-art performance on density estimation with variational
autoencoders and continuous control with soft actor-critic.
- Abstract(参考訳): エントロピーは機械学習においてユビキタスであるが、任意の連続確率変数の分布のエントロピーを計算するのは一般的ではない。
本稿では,エントロピーの勾配推定に使用可能な対数密度関数の勾配を近似するために,残差消音オートエンコーダ(ar-dae)を提案する。
amortizationにより、正規のdaeの漸近的最適性に近づくことにより、勾配近似器の誤差を大幅に低減することができる。
提案手法の近似誤差に関する理論的および実験的解析と,その堅牢性を確保するためのヒューリスティックスに関する広範な研究を行う。
最後に,提案する勾配近似器を用いてエントロピーの勾配を推定し,変分オートエンコーダによる密度推定とソフトアクタ-クリティックによる連続制御における最先端の性能を示す。
関連論文リスト
- Asymptotically Optimal Change Detection for Unnormalized Pre- and Post-Change Distributions [65.38208224389027]
本稿では,非正規化前および後の変化分布のみがアクセス可能である場合にのみ,変化を検出する問題に対処する。
提案手法は,最適性能を示すことが知られている累積サム統計量の推定に基づく。
論文 参考訳(メタデータ) (2024-10-18T17:13:29Z) - Analytical Approximation of the ELBO Gradient in the Context of the Clutter Problem [0.0]
変分推論問題におけるエビデンス下界(ELBO)の勾配を近似する解析解を提案する。
提案手法は線形計算複雑性とともに精度と収束率を示す。
論文 参考訳(メタデータ) (2024-04-16T13:19:46Z) - Non-asymptotic Analysis of Biased Adaptive Stochastic Approximation [0.8192907805418583]
偏りのある勾配は滑らかな非函数に対する臨界点に収束することを示す。
適切なチューニングを行うことで,バイアスの効果を低減できることを示す。
論文 参考訳(メタデータ) (2024-02-05T10:17:36Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Stationary Density Estimation of It\^o Diffusions Using Deep Learning [6.8342505943533345]
離散時間系列からのエルゴード的伊藤拡散の定常測度に関連する密度推定問題を考察する。
我々は深層ニューラルネットワークを用いてSDEのドリフトと拡散の項を近似する。
我々は、適切な数学的仮定の下で提案されたスキームの収束を確立する。
論文 参考訳(メタデータ) (2021-09-09T01:57:14Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z) - Non-asymptotic bounds for stochastic optimization with biased noisy
gradient oracles [8.655294504286635]
関数の測定値が推定誤差を持つ設定を捉えるために,バイアス付き勾配オラクルを導入する。
提案するオラクルは,例えば,独立分散シミュレーションと同一分散シミュレーションのバッチによるリスク計測推定の実践的な状況にある。
論文 参考訳(メタデータ) (2020-02-26T12:53:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。