論文の概要: A Contour Stochastic Gradient Langevin Dynamics Algorithm for
Simulations of Multi-modal Distributions
- arxiv url: http://arxiv.org/abs/2010.09800v2
- Date: Mon, 23 May 2022 13:27:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 21:33:11.909000
- Title: A Contour Stochastic Gradient Langevin Dynamics Algorithm for
Simulations of Multi-modal Distributions
- Title(参考訳): マルチモーダル分布のシミュレーションのための輪郭確率勾配ランジュバンダイナミクスアルゴリズム
- Authors: Wei Deng and Guang Lin and Faming Liang
- Abstract要約: ビッグデータ統計学の学習のための適応重み付き勾配ランゲヴィン力学(SGLD)を提案する。
提案アルゴリズムは、CIFAR100を含むベンチマークデータセットで検証される。
- 参考スコア(独自算出の注目度): 17.14287157979558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an adaptively weighted stochastic gradient Langevin dynamics
algorithm (SGLD), so-called contour stochastic gradient Langevin dynamics
(CSGLD), for Bayesian learning in big data statistics. The proposed algorithm
is essentially a \emph{scalable dynamic importance sampler}, which
automatically \emph{flattens} the target distribution such that the simulation
for a multi-modal distribution can be greatly facilitated. Theoretically, we
prove a stability condition and establish the asymptotic convergence of the
self-adapting parameter to a {\it unique fixed-point}, regardless of the
non-convexity of the original energy function; we also present an error
analysis for the weighted averaging estimators. Empirically, the CSGLD
algorithm is tested on multiple benchmark datasets including CIFAR10 and
CIFAR100. The numerical results indicate its superiority to avoid the local
trap problem in training deep neural networks.
- Abstract(参考訳): 本稿では,ビッグデータ統計学におけるベイズ学習のための適応的重み付け確率勾配ランジュバンダイナミクスアルゴリズム(sgld),いわゆるコンター確率勾配ランジュバンダイナミクス(csgld)を提案する。
提案手法は,マルチモーダル分布のシミュレーションが大幅に容易になるように,対象分布を自動的\emph{flattens} する \emph{scalable dynamic importance sampler} である。
理論的には、安定条件を証明し、元のエネルギー関数の非凸性にかかわらず、自己適応パラメータを a {\displaystyle a} に漸近収束させる。
CSGLDアルゴリズムは、CIFAR10やCIFAR100など、複数のベンチマークデータセットで実証されている。
その結果,深層ニューラルネットワークの学習における局所的トラップ問題を回避することが得られた。
関連論文リスト
- Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Langevin dynamics based algorithm e-TH$\varepsilon$O POULA for stochastic optimization problems with discontinuous stochastic gradient [6.563379950720334]
我々は,不連続勾配による最適化問題を解くために,e-TH$varepsilon$O POULAと呼ばれる新しいランゲヴィン力学に基づくアルゴリズムを導入する。
金融と保険の3つの重要な応用として、多周期ポートフォリオ最適化、多周期ポートフォリオ最適化におけるトランスファーラーニング、保険請求予測がある。
論文 参考訳(メタデータ) (2022-10-24T13:10:06Z) - Rigorous dynamical mean field theory for stochastic gradient descent
methods [17.90683687731009]
一階勾配法の一家系の正確な高次元に対する閉形式方程式を証明した。
これには勾配降下(SGD)やネステロフ加速度などの広く使われているアルゴリズムが含まれる。
論文 参考訳(メタデータ) (2022-10-12T21:10:55Z) - Interacting Contour Stochastic Gradient Langevin Dynamics [22.131194626068027]
そこで本研究では,効率的な相互作用を持つ対話型輪郭勾配ランゲヴィンダイナミックス (ICSGLD) サンプリング器を提案する。
ICSGLDは,等価な計算予算を持つ単一チェーンCSGLDよりも理論的に効率的であることを示す。
また,ビッグデータにおける自己適応パラメータの推定を容易にする新しいランダムフィールド関数を提案する。
論文 参考訳(メタデータ) (2022-02-20T17:23:09Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - Stochastic Gradient Langevin Dynamics Algorithms with Adaptive Drifts [8.36840154574354]
そこで我々は, ドリフト関数を偏り, サドル点からの脱出を促進させ, バイアスを過去のサンプルの勾配に応じて適応的に調整する, 適応的勾配勾配連鎖モンテカルロ(SGMCMC)アルゴリズムを提案する。
本稿では,提案アルゴリズムが既存のSGMCMCアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-20T22:03:39Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Dynamical mean-field theory for stochastic gradient descent in Gaussian
mixture classification [25.898873960635534]
高次元景観を分類する単一層ニューラルネットワークにおける勾配降下(SGD)の閉学習ダイナミクスを解析する。
連続次元勾配流に拡張可能なプロトタイププロセスを定義する。
フルバッチ限界では、標準勾配流を回復する。
論文 参考訳(メタデータ) (2020-06-10T22:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。