論文の概要: Stochastic Gradient Langevin Dynamics Algorithms with Adaptive Drifts
- arxiv url: http://arxiv.org/abs/2009.09535v1
- Date: Sun, 20 Sep 2020 22:03:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 12:43:49.291119
- Title: Stochastic Gradient Langevin Dynamics Algorithms with Adaptive Drifts
- Title(参考訳): 適応ドリフトを用いた確率勾配ランゲヴィンダイナミクスアルゴリズム
- Authors: Sehwan Kim, Qifan Song, and Faming Liang
- Abstract要約: そこで我々は, ドリフト関数を偏り, サドル点からの脱出を促進させ, バイアスを過去のサンプルの勾配に応じて適応的に調整する, 適応的勾配勾配連鎖モンテカルロ(SGMCMC)アルゴリズムを提案する。
本稿では,提案アルゴリズムが既存のSGMCMCアルゴリズムよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 8.36840154574354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian deep learning offers a principled way to address many issues
concerning safety of artificial intelligence (AI), such as model
uncertainty,model interpretability, and prediction bias. However, due to the
lack of efficient Monte Carlo algorithms for sampling from the posterior of
deep neural networks (DNNs), Bayesian deep learning has not yet powered our AI
system. We propose a class of adaptive stochastic gradient Markov chain Monte
Carlo (SGMCMC) algorithms, where the drift function is biased to enhance escape
from saddle points and the bias is adaptively adjusted according to the
gradient of past samples. We establish the convergence of the proposed
algorithms under mild conditions, and demonstrate via numerical examples that
the proposed algorithms can significantly outperform the existing SGMCMC
algorithms, such as stochastic gradient Langevin dynamics (SGLD), stochastic
gradient Hamiltonian Monte Carlo (SGHMC) and preconditioned SGLD, in both
simulation and optimization tasks.
- Abstract(参考訳): ベイジアンディープラーニングは、モデル不確実性、モデル解釈可能性、予測バイアスなど、人工知能(AI)の安全性に関する多くの問題に対処するための原則化された方法を提供する。
しかし、ディープニューラルネットワーク(DNN)の後部からサンプリングする効率的なモンテカルロアルゴリズムが欠如しているため、ベイジアンディープラーニングはまだ私たちのAIシステムを動力にしていない。
本研究では,ドリフト関数が偏り,鞍点からの脱落が促進され,過去のサンプルの勾配に応じてバイアスが適応的に調整される適応確率勾配マルコフ連鎖モンテカルロ(sgmcmc)アルゴリズムを提案する。
我々は,提案アルゴリズムの収束性を軽度条件下で確立し,提案アルゴリズムが,確率勾配ランゲヴィンダイナミクス(SGLD),確率勾配ハミルトンモンテカルロ(SGHMC),プレコンディショニングSGLDといった既存のSGMCMCアルゴリズムを,シミュレーションと最適化の両方において著しく上回ることを示した。
関連論文リスト
- Robust Approximate Sampling via Stochastic Gradient Barker Dynamics [0.0]
本稿では,Langevin に基づくサンプリングアルゴリズムの頑健な代替である Barker gradient dynamics (SGBD) アルゴリズムを勾配フレームワークに導入する。
本稿では,バーカー遷移機構に対する勾配の影響を特徴付けるとともに,勾配雑音による誤差を除去するバイアス補正版を開発する。
論文 参考訳(メタデータ) (2024-05-14T23:47:02Z) - Fast Value Tracking for Deep Reinforcement Learning [7.648784748888187]
強化学習(Reinforcement Learning, RL)は、環境と対話するエージェントを作成することによって、シーケンシャルな意思決定問題に取り組む。
既存のアルゴリズムはしばしばこれらの問題を静的とみなし、期待される報酬を最大化するためにモデルパラメータの点推定に重点を置いている。
我々の研究は、カルマンパラダイムを活用して、Langevinized Kalman TemporalTDと呼ばれる新しい定量化およびサンプリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-03-19T22:18:19Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - A Contour Stochastic Gradient Langevin Dynamics Algorithm for
Simulations of Multi-modal Distributions [17.14287157979558]
ビッグデータ統計学の学習のための適応重み付き勾配ランゲヴィン力学(SGLD)を提案する。
提案アルゴリズムは、CIFAR100を含むベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-10-19T19:20:47Z) - An adaptive Hessian approximated stochastic gradient MCMC method [12.93317525451798]
後方からのサンプリング中に局所的幾何情報を組み込む適応型ヘッセン近似勾配MCMC法を提案する。
我々は,ネットワークの空間性を高めるために,等級に基づく重み付け法を採用する。
論文 参考訳(メタデータ) (2020-10-03T16:22:15Z) - Variance Reduction for Deep Q-Learning using Stochastic Recursive
Gradient [51.880464915253924]
深層Q-ラーニングアルゴリズムは、過度な分散を伴う勾配推定に苦しむことが多い。
本稿では、SRG-DQNと呼ばれる新しいアルゴリズムを実現するため、深層Q-ラーニングにおける勾配推定を更新するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-25T00:54:20Z) - Bayesian Sparse learning with preconditioned stochastic gradient MCMC
and its applications [5.660384137948734]
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束する。
提案アルゴリズムは, 温和な条件下で, 制御可能なバイアスで正しい分布に収束可能であることを示す。
論文 参考訳(メタデータ) (2020-06-29T20:57:20Z) - A Dynamical Systems Approach for Convergence of the Bayesian EM
Algorithm [59.99439951055238]
我々は、(離散時間)リアプノフ安定性理論が、必ずしも勾配ベースではない最適化アルゴリズムの分析(および潜在的な設計)において、いかに強力なツールとして役立つかを示す。
本稿では,不完全データベイズフレームワークにおけるパラメータ推定を,MAP-EM (maximum a reari expectation-maximization) と呼ばれる一般的な最適化アルゴリズムを用いて行うことに着目したML問題について述べる。
高速収束(線形あるいは二次的)が達成され,S&Cアプローチを使わずに発表することが困難であった可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-23T01:34:18Z) - Improving Sampling Accuracy of Stochastic Gradient MCMC Methods via
Non-uniform Subsampling of Gradients [54.90670513852325]
サンプリング精度を向上させるための一様でないサブサンプリング手法を提案する。
EWSGは、一様勾配MCMC法がバッチ勾配MCMC法の統計的挙動を模倣するように設計されている。
EWSGの実践的な実装では、データインデックス上のMetropolis-Hastingsチェーンを介して、一様でないサブサンプリングを効率的に行う。
論文 参考訳(メタデータ) (2020-02-20T18:56:18Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。