論文の概要: Amortized variance reduction for doubly stochastic objectives
- arxiv url: http://arxiv.org/abs/2003.04125v1
- Date: Mon, 9 Mar 2020 13:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 08:23:43.095557
- Title: Amortized variance reduction for doubly stochastic objectives
- Title(参考訳): 二重確率目的に対する償却分散還元
- Authors: Ayman Boustati, Sattar Vakili, James Hensman, ST John
- Abstract要約: 複素確率モデルにおける近似推論は二重目的関数の最適化を必要とする。
現在のアプローチでは、ミニバッチがサンプリング性にどのように影響するかを考慮せず、結果として準最適分散が減少する。
本稿では,認識ネットワークを用いて各ミニバッチに対して最適な制御変数を安価に近似する手法を提案する。
- 参考スコア(独自算出の注目度): 17.064916635597417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Approximate inference in complex probabilistic models such as deep Gaussian
processes requires the optimisation of doubly stochastic objective functions.
These objectives incorporate randomness both from mini-batch subsampling of the
data and from Monte Carlo estimation of expectations. If the gradient variance
is high, the stochastic optimisation problem becomes difficult with a slow rate
of convergence. Control variates can be used to reduce the variance, but past
approaches do not take into account how mini-batch stochasticity affects
sampling stochasticity, resulting in sub-optimal variance reduction. We propose
a new approach in which we use a recognition network to cheaply approximate the
optimal control variate for each mini-batch, with no additional model gradient
computations. We illustrate the properties of this proposal and test its
performance on logistic regression and deep Gaussian processes.
- Abstract(参考訳): 深いガウス過程のような複素確率モデルにおける近似推論は、二重確率目的関数の最適化を必要とする。
これらの目的はデータのミニバッチサブサンプリングとモンテカルロ予測の両方からランダム性を取り入れている。
勾配分散が高ければ、確率的最適化問題は収束速度が遅くなると困難になる。
制御変数は分散を低減するために用いられるが、過去のアプローチでは、最小バッチ確率がサンプリング確率にどのように影響するかを考慮していない。
本研究では,モデル勾配計算を必要とせず,各ミニバッチの最適制御変動を安価に近似する認識ネットワークを提案する。
本提案の特性を説明し,ロジスティック回帰および深いガウス過程におけるその性能をテストする。
関連論文リスト
- Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - Robust Stochastic Optimization via Gradient Quantile Clipping [6.2844649973308835]
グラディエントDescent(SGD)のための量子クリッピング戦略を導入する。
通常のクリッピングチェーンとして、グラデーション・ニュー・アウトリージを使用します。
本稿では,Huberiles を用いたアルゴリズムの実装を提案する。
論文 参考訳(メタデータ) (2023-09-29T15:24:48Z) - Joint Sampling and Optimisation for Inverse Rendering [24.290038684298164]
各イテレーションで多くの勾配サンプルを平均すると、この分散は自明に減少する。
サンプリングと最適化を相互に行う理論的枠組みを導出する。
逆経路追跡法を実装し,評価器が難解な最適化タスクの収束をいかに高速化するかを示す。
論文 参考訳(メタデータ) (2023-09-27T14:21:13Z) - Neural Operator Variational Inference based on Regularized Stein
Discrepancy for Deep Gaussian Processes [23.87733307119697]
本稿では,深いガウス過程に対するニューラル演算子変分推論(NOVI)を提案する。
NOVIは、ニューラルジェネレータを使用してサンプリング装置を取得し、生成された分布と真の後部の間のL2空間における正規化スタインの離散性を最小化する。
提案手法が提案するバイアスは定数で発散を乗算することで制御可能であることを示す。
論文 参考訳(メタデータ) (2023-09-22T06:56:35Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Variance Regularization for Accelerating Stochastic Optimization [14.545770519120898]
ミニバッチ勾配に隠れた統計情報を利用してランダムな誤りの蓄積を低減する普遍原理を提案する。
これは、ミニバッチのばらつきに応じて学習率を正規化することで達成される。
論文 参考訳(メタデータ) (2020-08-13T15:34:01Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。