論文の概要: Equilibrium and non-Equilibrium regimes in the learning of Restricted
Boltzmann Machines
- arxiv url: http://arxiv.org/abs/2105.13889v1
- Date: Fri, 28 May 2021 14:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 13:22:29.295719
- Title: Equilibrium and non-Equilibrium regimes in the learning of Restricted
Boltzmann Machines
- Title(参考訳): 制限ボルツマンマシンの学習における平衡系と非平衡系
- Authors: Aur\'elien Decelle, Cyril Furtlehner, Beatriz Seoane
- Abstract要約: Boltzmann Machines (RBMs) のトレーニングは、ログのような勾配を正確に計算することの難しさから、長い間困難であった。
この混合時間は、訓練されたモデルの力学と安定性において重要な役割を果たすことを示す。
- 参考スコア(独自算出の注目度): 0.9208007322096533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training Restricted Boltzmann Machines (RBMs) has been challenging for a long
time due to the difficulty of computing precisely the log-likelihood gradient.
Over the past decades, many works have proposed more or less successful
training recipes but without studying the crucial quantity of the problem: the
mixing time i.e. the number of Monte Carlo iterations needed to sample new
configurations from a model. In this work, we show that this mixing time plays
a crucial role in the dynamics and stability of the trained model, and that
RBMs operate in two well-defined regimes, namely equilibrium and
out-of-equilibrium, depending on the interplay between this mixing time of the
model and the number of steps, $k$, used to approximate the gradient. We
further show empirically that this mixing time increases with the learning,
which often implies a transition from one regime to another as soon as $k$
becomes smaller than this time. In particular, we show that using the popular
$k$ (persistent) contrastive divergence approaches, with $k$ small, the
dynamics of the learned model are extremely slow and often dominated by strong
out-of-equilibrium effects. On the contrary, RBMs trained in equilibrium
display faster dynamics, and a smooth convergence to dataset-like
configurations during the sampling. Finally we discuss how to exploit in
practice both regimes depending on the task one aims to fulfill: (i) short $k$s
can be used to generate convincing samples in short times, (ii) large $k$ (or
increasingly large) must be used to learn the correct equilibrium distribution
of the RBM.
- Abstract(参考訳): Restricted Boltzmann Machines (RBMs) は、ログのような勾配を正確に計算することの難しさから、長い間困難であった。
過去数十年間、多くの作品が多かれ少なかれ成功したレシピを提案してきたが、問題の重要な量である混合時間(つまり混合時間)を学ばなかった。
モデルから新しい構成をサンプリングするのに必要なモンテカルロのイテレーションの数。
本研究では, この混合時間は, モデルの力学および安定性において重要な役割を担い, RBM は, この混合時間と勾配の近似に使用されるステップ数, $k$ との相互作用に応じて, 平衡と外平衡の2つの明確に定義された状態で動作することを示した。
我々はさらに、この混合時間が学習とともに増加することを実証的に示し、これはしばしば、1つのレジームから別のレジームへの遷移が、k$がこの時間よりも小さくなるとすぐに示唆する。
特に,人気の$k$ (永続的) コントラスト・ダイバージェンスアプローチを用いて,$k$ が小さい場合,学習モデルのダイナミクスは極めて遅く,しばしば強い平衡外効果によって支配される。
それとは対照的に、平衡で訓練されたrbmsはより高速なダイナミクスを示し、サンプリング中にデータセットのような構成にスムーズに収束する。
i)ショート$k$sは短時間で説得力のあるサンプルを生成するために使用することができ、(ii)大きな$k$(またはますます大きい)はRBMの正しい平衡分布を学習するために使用する必要があります。
関連論文リスト
- Machine-Learned Closure of URANS for Stably Stratified Turbulence: Connecting Physical Timescales & Data Hyperparameters of Deep Time-Series Models [0.0]
我々は、非定常レイノルズ平均ナビエストークス方程式のクロージャモデリングのための時系列機械学習(ML)法を開発した。
我々は, 均一密度勾配により均一で安定に成層された崩壊SSTを考察した。
MLモデルがSSTの力学を正確に捉えるために必要な最小情報の時間尺度の比率は,流れのレイノルズ数と一致することがわかった。
論文 参考訳(メタデータ) (2024-04-24T18:58:00Z) - A Black-box Approach for Non-stationary Multi-agent Reinforcement Learning [53.83345471268163]
非定常マルチエージェントシステムにおける平衡の学習について検討する。
単エージェント学習へのブラックボックス還元による様々な平衡の検証方法を示す。
論文 参考訳(メタデータ) (2023-06-12T23:48:24Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Beyond Exponentially Fast Mixing in Average-Reward Reinforcement
Learning via Multi-Level Monte Carlo Actor-Critic [61.968469104271676]
本稿では,アクター・アクターとアクター・アクター・アクター・アルゴリズムに埋め込まれた平均報酬に対して,マルチレベルモンテカルロ推定器を用いて混合時間に適応したRL手法を提案する。
不安定な報酬を伴うRL問題において,安定性に要求される技術的条件の緩和効果が,実用上優れた性能に変換されることを実験的に示す。
論文 参考訳(メタデータ) (2023-01-28T04:12:56Z) - Stabilizing Machine Learning Prediction of Dynamics: Noise and
Noise-inspired Regularization [58.720142291102135]
近年、機械学習(ML)モデルはカオス力学系の力学を正確に予測するために訓練可能であることが示されている。
緩和技術がなければ、この技術は人工的に迅速にエラーを発生させ、不正確な予測と/または気候不安定をもたらす可能性がある。
トレーニング中にモデル入力に付加される多数の独立雑音実効化の効果を決定論的に近似する正規化手法であるLinearized Multi-Noise Training (LMNT)を導入する。
論文 参考訳(メタデータ) (2022-11-09T23:40:52Z) - Applying Regularized Schr\"odinger-Bridge-Based Stochastic Process in
Generative Modeling [0.0]
本研究は,時間ステップ数とトレーニング時間を削減し,双方向プロセスと時間ステップ数との整合性を確保するための正規化条件を提案する。
この正規化を様々なタスクに適用することにより、より高速なサンプリング速度のプロセスに基づく生成モデリングの可能性を確認することができる。
論文 参考訳(メタデータ) (2022-08-15T11:52:33Z) - Learning a Restricted Boltzmann Machine using biased Monte Carlo
sampling [0.6554326244334867]
マルコフ・チェイン・モンテカルロによる平衡分布のサンプリングはバイアスサンプリング法により劇的に加速できることを示す。
また、このサンプリング手法を用いて、トレーニング中のログライクな勾配の計算を改善することも示している。
論文 参考訳(メタデータ) (2022-06-02T21:29:01Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Role of stochastic noise and generalization error in the time
propagation of neural-network quantum states [0.0]
ニューラルネットワーク量子状態(NQS)は、平衡外力学をシミュレートするのに適切な変分アンサッツであることが示されている。
安定かつ正確な時間伝搬は、十分に規則化された変動力学のレギュレーションで達成できることを示す。
論文 参考訳(メタデータ) (2021-05-03T17:55:09Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。