論文の概要: Storchastic: A Framework for General Stochastic Automatic
Differentiation
- arxiv url: http://arxiv.org/abs/2104.00428v1
- Date: Thu, 1 Apr 2021 12:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:57:44.391506
- Title: Storchastic: A Framework for General Stochastic Automatic
Differentiation
- Title(参考訳): Storchastic: 一般的な確率的自動微分のためのフレームワーク
- Authors: Emile van Krieken, Jakub M. Tomczak, Annette ten Teije
- Abstract要約: グラフの自動微分のための新しいフレームワークであるstorchasticを紹介する。
Storchasticにより、モデラーはサンプリングステップごとに様々な勾配推定方法を選択することができる。
Storchasticは任意の階勾配の推定に偏見がなく、分散減少技術を高階勾配推定に一般化する。
- 参考スコア(独自算出の注目度): 9.34612743192798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modelers use automatic differentiation of computation graphs to implement
complex Deep Learning models without defining gradient computations. However,
modelers often use sampling methods to estimate intractable expectations such
as in Reinforcement Learning and Variational Inference. Current methods for
estimating gradients through these sampling steps are limited: They are either
only applicable to continuous random variables and differentiable functions, or
can only use simple but high variance score-function estimators.
To overcome these limitations, we introduce Storchastic, a new framework for
automatic differentiation of stochastic computation graphs. Storchastic allows
the modeler to choose from a wide variety of gradient estimation methods at
each sampling step, to optimally reduce the variance of the gradient estimates.
Furthermore, Storchastic is provably unbiased for estimation of any-order
gradients, and generalizes variance reduction techniques to higher-order
gradient estimates. Finally, we implement Storchastic as a PyTorch library.
- Abstract(参考訳): モデリング者は、勾配計算を定義することなく複雑なディープラーニングモデルを実装するために計算グラフの自動微分を使用する。
しかし、モデラーはしばしばサンプリング手法を用いて強化学習や変分推論のような難解な期待を推定する。
これらのサンプリングステップを通じて勾配を推定する現在の方法は限られており、連続確率変数と微分可能関数にのみ適用できるか、単純なが高分散スコア関数推定器しか使用できない。
このような制約を克服するために,確率計算グラフの自動微分のための新しいフレームワークであるstorchasticを紹介する。
storchasticでは、各サンプリングステップで様々な勾配推定方法を選択することで、勾配推定のばらつきを最適に低減することができる。
さらに,任意の次勾配の推定には確率論的に偏りがなく,分散還元法を高次勾配推定に一般化する。
最後に、PyTorchライブラリとしてStorchasticを実装します。
関連論文リスト
- One-step corrected projected stochastic gradient descent for statistical estimation [49.1574468325115]
これは、Fisherスコアリングアルゴリズムの1ステップで修正されたログ様関数の予測勾配勾配に基づいている。
理論およびシミュレーションにより、平均勾配勾配や適応勾配勾配の通常の勾配勾配の代替として興味深いものであることを示す。
論文 参考訳(メタデータ) (2023-06-09T13:43:07Z) - Adaptive Perturbation-Based Gradient Estimation for Discrete Latent
Variable Models [28.011868604717726]
複素離散分布に対する適応勾配推定器であるAdaptive IMLEを提案する。
我々の推定器は、他の勾配推定器よりも桁違いに少ないサンプルを必要とする一方で、忠実な推定を行うことができることを示す。
論文 参考訳(メタデータ) (2022-09-11T13:32:39Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Gradient Estimation with Discrete Stein Operators [44.64146470394269]
離散分布に対するスタイン演算子に基づく分散化手法を提案する。
提案手法は,同数の関数評価値を持つ最先端推定値よりも,かなり低い分散性を実現する。
論文 参考訳(メタデータ) (2022-02-19T02:22:23Z) - Random-reshuffled SARAH does not need a full gradient computations [61.85897464405715]
StochAstic Recursive grAdientritHm (SARAH)アルゴリズムは、Gradient Descent (SGD)アルゴリズムのばらつき低減版である。
本稿では,完全勾配の必要性を除去する。
集約された勾配は、SARAHアルゴリズムの完全な勾配の見積もりとなる。
論文 参考訳(メタデータ) (2021-11-26T06:00:44Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - Carath\'eodory Sampling for Stochastic Gradient Descent [79.55586575988292]
本稿では,Tchakaloff と Carath'eodory の古典的な結果から着想を得た手法を提案する。
我々は、測定値の低減を行う降下ステップを適応的に選択する。
これをBlock Coordinate Descentと組み合わせることで、測定の削減を極めて安価に行えるようにします。
論文 参考訳(メタデータ) (2020-06-02T17:52:59Z) - Generalized Gumbel-Softmax Gradient Estimator for Various Discrete
Random Variables [16.643346012854156]
ノードの勾配を評価することは、深層生成モデリングコミュニティにおいて重要な研究課題の1つである。
本稿では,連続緩和を伴うGumbel-Softmax推定器の一般バージョンを提案する。
論文 参考訳(メタデータ) (2020-03-04T01:13:15Z) - Non-asymptotic bounds for stochastic optimization with biased noisy
gradient oracles [8.655294504286635]
関数の測定値が推定誤差を持つ設定を捉えるために,バイアス付き勾配オラクルを導入する。
提案するオラクルは,例えば,独立分散シミュレーションと同一分散シミュレーションのバッチによるリスク計測推定の実践的な状況にある。
論文 参考訳(メタデータ) (2020-02-26T12:53:04Z) - Variance Reduction with Sparse Gradients [82.41780420431205]
SVRGやSpiderBoostのような分散還元法では、大きなバッチ勾配と小さなバッチ勾配が混在している。
我々は、新しい空間演算子:ランダムトップk演算子を導入する。
我々のアルゴリズムは、画像分類、自然言語処理、スパース行列分解など様々なタスクにおいて、一貫してSpiderBoostより優れています。
論文 参考訳(メタデータ) (2020-01-27T08:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。