論文の概要: HMC with Normalizing Flows
- arxiv url: http://arxiv.org/abs/2112.01586v1
- Date: Thu, 2 Dec 2021 19:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 07:02:54.788320
- Title: HMC with Normalizing Flows
- Title(参考訳): 正規化流れを有するHMC
- Authors: Sam Foreman, Taku Izubuchi, Luchang Jin, Xiao-Yong Jin, James C.
Osborn, Akio Tomiya
- Abstract要約: ハミルトン・モンテカルロ(HMC)の分子動力学更新におけるトレーニング可能なカーネルとして正規化フローを用いることを提案する。
慎重に構築されたネットワークアーキテクチャを用いて、我々のアプローチは最小限のトレーニング作業で大規模格子ボリュームに容易に拡張可能であることを示す。
- 参考スコア(独自算出の注目度): 0.559239450391449
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose using Normalizing Flows as a trainable kernel within the molecular
dynamics update of Hamiltonian Monte Carlo (HMC). By learning (invertible)
transformations that simplify our dynamics, we can outperform traditional
methods at generating independent configurations. We show that, using a
carefully constructed network architecture, our approach can be easily scaled
to large lattice volumes with minimal retraining effort. The source code for
our implementation is publicly available online at
https://github.com/nftqcd/fthmc.
- Abstract(参考訳): 本研究では,ハミルトニアンモンテカルロ(HMC)の分子動力学更新におけるトレーニング可能なカーネルとして正規化フローを提案する。
ダイナミクスを単純化する(逆)変換を学べば、従来の方法よりも独立な構成を生成することができるのです。
慎重に構築されたネットワークアーキテクチャを用いて、我々のアプローチは最小限のトレーニング作業で大規模格子ボリュームに容易に拡張可能であることを示す。
実装のソースコードはhttps://github.com/nftqcd/fthmc.comで公開されている。
関連論文リスト
- Free-form Flows: Make Any Architecture a Normalizing Flow [8.163244519983298]
本研究では,変数の変動の勾配を効率的に推定する訓練手法を開発した。
これにより、任意の次元保存ニューラルネットワークが、最大限のトレーニングを通じて生成モデルとして機能することが可能になる。
我々は$E(n)$-equivariantネットワークを用いた分子生成ベンチマークにおいて優れた結果を得た。
論文 参考訳(メタデータ) (2023-10-25T13:23:08Z) - Tensor Decompositions Meet Control Theory: Learning General Mixtures of
Linear Dynamical Systems [19.47235707806519]
テンソル分解に基づく線形力学系の混合を学習するための新しいアプローチを提案する。
このアルゴリズムは, 成分の分離条件が強くないまま成功し, 軌道のベイズ最適クラスタリングと競合することができる。
論文 参考訳(メタデータ) (2023-07-13T03:00:01Z) - Invertible Monotone Operators for Normalizing Flows [7.971699294672282]
正規化フローモデル確率は、単純な分布を複素分布に変換する可逆変換を学習することによって得られる。
単調作用素を用いたリプシッツ定数の問題を克服するための単調定式化を提案する。
結果として得られるモデルであるMonotone Flowsは、複数の密度推定ベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-15T03:40:46Z) - Guaranteed Conservation of Momentum for Learning Particle-based Fluid
Dynamics [96.9177297872723]
本稿では,学習物理シミュレーションにおける線形運動量を保証する新しい手法を提案する。
我々は、強い制約で運動量の保存を強制し、反対称的な連続的な畳み込み層を通して実現する。
提案手法により,学習シミュレータの物理的精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-12T09:12:59Z) - Stochastic normalizing flows as non-equilibrium transformations [62.997667081978825]
正規化フローは従来のモンテカルロシミュレーションよりも効率的に格子場理論をサンプリングするための経路を提供することを示す。
本稿では,この拡張された生成モデルの効率を最適化する戦略と応用例を示す。
論文 参考訳(メタデータ) (2022-01-21T19:00:18Z) - KalmanNet: Neural Network Aided Kalman Filtering for Partially Known
Dynamics [84.18625250574853]
KalmanNetは、データから学習し、非線形力学の下でKalmanフィルタを実行するリアルタイム状態推定器である。
我々は、KalmanNetが非線形性とモデルミスマッチを克服し、古典的なフィルタリング手法より優れていることを数値的に示す。
論文 参考訳(メタデータ) (2021-07-21T12:26:46Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - Deep Learning Hamiltonian Monte Carlo [0.6554326244334867]
私たちは、ハミルトンモンテカルロアルゴリズムをニューラルネットワークレイヤーのスタックで一般化します。
私たちのモデルは、異なるトポロジのモード間でうまく混在できることを示します。
論文 参考訳(メタデータ) (2021-05-07T17:50:18Z) - Scaling Hamiltonian Monte Carlo Inference for Bayesian Neural Networks
with Symmetric Splitting [6.684193501969829]
ハミルトニアン・モンテカルロ(英: Hamiltonian Monte Carlo、HMC)は、マルコフ連鎖モンテカルロのアプローチであり、ニューラルネットワークのような高次元モデルにおいて好ましい探索特性を示す。
対称勾配に依存しない分割HMCに対する新たな積分方式を導入する。
提案手法は,大規模機械学習問題に対する推論スキームを考慮した場合,HMCを実現可能な選択肢として示す。
論文 参考訳(メタデータ) (2020-10-14T01:58:34Z) - Coresets via Bilevel Optimization for Continual Learning and Streaming [86.67190358712064]
濃度制約付き二レベル最適化による新しいコアセット構成を提案する。
我々のフレームワークがディープニューラルネットワークのコアセットを効率的に生成できることを示し、連続学習やストリーミング設定における経験的メリットを示す。
論文 参考訳(メタデータ) (2020-06-06T14:20:25Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。