論文の概要: Markov Chain Score Ascent: A Unifying Framework of Variational Inference
with Markovian Gradients
- arxiv url: http://arxiv.org/abs/2206.06295v1
- Date: Mon, 13 Jun 2022 16:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 13:02:44.316106
- Title: Markov Chain Score Ascent: A Unifying Framework of Variational Inference
with Markovian Gradients
- Title(参考訳): Markov Chain Score Ascent: Markovian Gradientsによる変分推論の統一フレームワーク
- Authors: Kyurae Kim, Jisu Oh, Jacob R. Gardner, Adji Bousso Dieng, Hongseok Kim
- Abstract要約: 勾配降下(SGD)による包摂的クルバック・リーブラー分岐の最小化は、その勾配が後部上の積分として定義されるため困難である。
本稿では,これらの手法の非漸近収束解析として,混合速度と勾配のばらつきを確立した。
- 参考スコア(独自算出の注目度): 7.461223697336269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Minimizing the inclusive Kullback-Leibler (KL) divergence with stochastic
gradient descent (SGD) is challenging since its gradient is defined as an
integral over the posterior. Recently, multiple methods have been proposed to
run SGD with biased gradient estimates obtained from a Markov chain. This paper
provides the first non-asymptotic convergence analysis of these methods by
establishing their mixing rate and gradient variance. To do this, we
demonstrate that these methods-which we collectively refer to as Markov chain
score ascent (MCSA) methods-can be cast as special cases of the Markov chain
gradient descent framework. Furthermore, by leveraging this new understanding,
we develop a novel MCSA scheme, parallel MCSA (pMCSA), that achieves a tighter
bound on the gradient variance. We demonstrate that this improved theoretical
result translates to superior empirical performance.
- Abstract(参考訳): 確率勾配降下(sgd)を伴う包括的kullback-leibler(kl)分岐の最小化は、その勾配が後方の積分として定義されるため困難である。
近年,マルコフ連鎖から得られた偏差勾配推定値を用いてSGDを実行する方法が提案されている。
本稿では, この手法について, 混合速度と勾配分散の確立により, 初の非漸近収束解析を行う。
そこで我々は,これらの手法をMarkov chain score Ascent (MCSA) と総称し,Markov chain gradient descent framework の特殊な場合として適用できることを実証した。
さらに, この新たな理解を活かし, 勾配分散のより厳密な結合を実現する新しいmcsaスキームであるparallel mcsa (pmcsa) を開発した。
この改良された理論結果が優れた経験的性能をもたらすことを実証する。
関連論文リスト
- A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - Flattened one-bit stochastic gradient descent: compressed distributed optimization with controlled variance [55.01966743652196]
パラメータ・サーバ・フレームワークにおける圧縮勾配通信を用いた分散勾配降下(SGD)のための新しいアルゴリズムを提案する。
平坦な1ビット勾配勾配勾配法(FO-SGD)は2つの単純なアルゴリズムの考え方に依存している。
論文 参考訳(メタデータ) (2024-05-17T21:17:27Z) - Robust Approximate Sampling via Stochastic Gradient Barker Dynamics [0.0]
本稿では,Langevin に基づくサンプリングアルゴリズムの頑健な代替である Barker gradient dynamics (SGBD) アルゴリズムを勾配フレームワークに導入する。
本稿では,バーカー遷移機構に対する勾配の影響を特徴付けるとともに,勾配雑音による誤差を除去するバイアス補正版を開発する。
論文 参考訳(メタデータ) (2024-05-14T23:47:02Z) - Stochastic Gradient Descent under Markovian Sampling Schemes [3.04585143845864]
マルコフ型サンプリングスキームにのみアクセス可能なバニラ勾配勾配の変動について検討する。
我々は、基礎となるマルコフ連鎖で可能な最小限の制限的な仮定の下で収束率を得ることに焦点をあてる。
論文 参考訳(メタデータ) (2023-02-28T09:18:00Z) - Almost Sure Saddle Avoidance of Stochastic Gradient Methods without the
Bounded Gradient Assumption [11.367487348673793]
勾配勾配降下法(SGD)、重ボール法(SHB)、ネステロフ加速勾配法(SNAG)など、様々な勾配勾配降下法が、厳密なサドル多様体をほぼ確実に避けていることを示す。
SHB法とSNAG法でこのような結果が得られたのはこれが初めてである。
論文 参考訳(メタデータ) (2023-02-15T18:53:41Z) - Learn Quasi-stationary Distributions of Finite State Markov Chain [2.780408966503282]
準定常分布の表現を計算するための強化学習(RL)手法を提案する。
候補分布と真の目標分布によって誘導される2つのマルコフ経路分布のKL偏差を最小化する。
対応する政策勾配定理を導出し,最適な解法と値関数を学習するためのアクター・クリティカルなアルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-11-19T02:56:34Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - Gaussian MRF Covariance Modeling for Efficient Black-Box Adversarial
Attacks [86.88061841975482]
我々は,ゼロオーダーのオラクルにのみアクセス可能なブラックボックス設定において,逆例を生成する問題について検討する。
我々はこの設定を用いて、FGSM(Fast Gradient Sign Method)のブラックボックス版と同様に、高速な1ステップの敵攻撃を見つける。
提案手法はクエリを少なくし,現在の技術よりも攻撃成功率が高いことを示す。
論文 参考訳(メタデータ) (2020-10-08T18:36:51Z) - Finite-Time Analysis of Stochastic Gradient Descent under Markov
Randomness [27.027583559295365]
勾配降下(SGD)は強化学習や機械学習に使用される。
SGDはマルコフ勾配試料と独立勾配試料とほぼ同じ速度で収束することを示す。
論文 参考訳(メタデータ) (2020-03-24T17:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。