論文の概要: Non-convex Learning via Replica Exchange Stochastic Gradient MCMC
- arxiv url: http://arxiv.org/abs/2008.05367v3
- Date: Mon, 22 Mar 2021 15:55:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 04:53:24.692968
- Title: Non-convex Learning via Replica Exchange Stochastic Gradient MCMC
- Title(参考訳): Replica Exchange Stochastic Gradient MCMCによる非凸学習
- Authors: Wei Deng, Qi Feng, Liyao Gao, Faming Liang, Guang Lin
- Abstract要約: 本稿では,適応的複製交換SGMCMC(reSGMCMC)を提案し,バイアスを自動的に補正し,対応する特性について検討する。
実験では,様々な設定の広範囲な実験を通じてアルゴリズムを検証し,その結果を得た。
- 参考スコア(独自算出の注目度): 25.47669573608621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Replica exchange Monte Carlo (reMC), also known as parallel tempering, is an
important technique for accelerating the convergence of the conventional Markov
Chain Monte Carlo (MCMC) algorithms. However, such a method requires the
evaluation of the energy function based on the full dataset and is not scalable
to big data. The na\"ive implementation of reMC in mini-batch settings
introduces large biases, which cannot be directly extended to the stochastic
gradient MCMC (SGMCMC), the standard sampling method for simulating from deep
neural networks (DNNs). In this paper, we propose an adaptive replica exchange
SGMCMC (reSGMCMC) to automatically correct the bias and study the corresponding
properties. The analysis implies an acceleration-accuracy trade-off in the
numerical discretization of a Markov jump process in a stochastic environment.
Empirically, we test the algorithm through extensive experiments on various
setups and obtain the state-of-the-art results on CIFAR10, CIFAR100, and SVHN
in both supervised learning and semi-supervised learning tasks.
- Abstract(参考訳): レプリカ交換モンテカルロ(Replica exchange Monte Carlo、reMC)は、従来のマルコフ連鎖モンテカルロ(MCMC)アルゴリズムの収束を加速させる重要な技術である。
しかし,この手法では全データセットに基づくエネルギー関数の評価が必要であり,ビッグデータには拡張性がない。
ミニバッチ設定におけるreMCの「積極的な実装」は、ディープニューラルネットワーク(DNN)からシミュレーションする標準的なサンプリング手法である確率勾配MCMC(SGMCMC)に直接拡張できない大きなバイアスをもたらす。
本稿では,バイアスを自動的に修正し,対応する特性を調べるための適応型レプリカ交換型sgmcmc(resgmcmc)を提案する。
この分析は確率環境におけるマルコフジャンプ過程の数値離散化における加速精度のトレードオフを示唆する。
CIFAR10, CIFAR100, SVHNでは, 教師あり学習タスクと半教師あり学習タスクの両方において, 様々な実験を行い, 実験結果を得た。
関連論文リスト
- Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Learning Energy-Based Prior Model with Diffusion-Amortized MCMC [89.95629196907082]
非収束短距離MCMCを用いた事前及び後方サンプリングによる潜時空間EMM学習の一般的な実践は、さらなる進歩を妨げている。
本稿では,MCMCサンプリングのための単純だが効果的な拡散型アモータイズ手法を導入し,それに基づく潜時空間EMMのための新しい学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-05T00:23:34Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion [56.38386580040991]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z) - Reverse Diffusion Monte Carlo [19.35592726471155]
逆拡散モンテカルロ(rdMC)と呼ばれる新しいモンテカルロサンプリングアルゴリズムを提案する。
rdMCはマルコフ連鎖モンテカルロ(MCMC)法とは異なる。
論文 参考訳(メタデータ) (2023-07-05T05:42:03Z) - Knowledge Removal in Sampling-based Bayesian Inference [86.14397783398711]
単一のデータ削除要求が来ると、企業は大量のリソースで学んだモデル全体を削除する必要があるかもしれない。
既存の研究は、明示的にパラメータ化されたモデルのためにデータから学んだ知識を取り除く方法を提案する。
本稿では,MCMCのための機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-24T10:03:01Z) - Stochastic Gradient MCMC with Multi-Armed Bandit Tuning [2.2559617939136505]
本稿では,SGMCMCハイパーパラメータを調整し,後部近似の精度を最大化するバンディットに基づく新しいアルゴリズムを提案する。
シミュレーションと実データの両方で実験を行い,本手法が広範囲の応用分野に適用可能であることを確認した。
論文 参考訳(メタデータ) (2021-05-27T11:00:31Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - Accelerating MCMC algorithms through Bayesian Deep Networks [7.054093620465401]
マルコフ・チェイン・モンテカルロ(MCMC)アルゴリズムは、複雑な確率分布のサンプリングにおいて、その汎用性のために一般的に用いられる。
分布の次元が大きくなるにつれて、サンプリング空間を十分に探索する計算コストが困難になる。
マルコフ連鎖の最初の提案としてベイズニューラルネットワークの結果を用いて適応MCMCを実行する方法を示す。
論文 参考訳(メタデータ) (2020-11-29T04:29:00Z) - An adaptive Hessian approximated stochastic gradient MCMC method [12.93317525451798]
後方からのサンプリング中に局所的幾何情報を組み込む適応型ヘッセン近似勾配MCMC法を提案する。
我々は,ネットワークの空間性を高めるために,等級に基づく重み付け法を採用する。
論文 参考訳(メタデータ) (2020-10-03T16:22:15Z) - Improving Sampling Accuracy of Stochastic Gradient MCMC Methods via
Non-uniform Subsampling of Gradients [54.90670513852325]
サンプリング精度を向上させるための一様でないサブサンプリング手法を提案する。
EWSGは、一様勾配MCMC法がバッチ勾配MCMC法の統計的挙動を模倣するように設計されている。
EWSGの実践的な実装では、データインデックス上のMetropolis-Hastingsチェーンを介して、一様でないサブサンプリングを効率的に行う。
論文 参考訳(メタデータ) (2020-02-20T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。