論文の概要: Stability-Aware Training of Neural Network Interatomic Potentials with
Differentiable Boltzmann Estimators
- arxiv url: http://arxiv.org/abs/2402.13984v1
- Date: Wed, 21 Feb 2024 18:12:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 14:20:50.488265
- Title: Stability-Aware Training of Neural Network Interatomic Potentials with
Differentiable Boltzmann Estimators
- Title(参考訳): ボルツマン推定器を用いたニューラルネットワーク間ポテンシャルの安定性を考慮した学習
- Authors: Sanjeev Raja, Ishan Amin, Fabian Pedregosa, Aditi S. Krishnapriyan
- Abstract要約: 安定かつ正確なNNIPを生成するための安定型ボルツマン推定器(StABlE)トレーニングを提案する。
StABlE Trainingは、不安定な領域を探すためにMDシミュレーションを反復的に実行し、参照オブザーバブルで監督によって不安定を補正する。
我々は, 有機分子, テトラペプチド, 凝縮相系および3つの近代NNIPアーキテクチャを用いた方法論を実証した。
- 参考スコア(独自算出の注目度): 12.781228780303184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network interatomic potentials (NNIPs) are an attractive alternative
to ab-initio methods for molecular dynamics (MD) simulations. However, they can
produce unstable simulations which sample unphysical states, limiting their
usefulness for modeling phenomena occurring over longer timescales. To address
these challenges, we present Stability-Aware Boltzmann Estimator (StABlE)
Training, a multi-modal training procedure which combines conventional
supervised training from quantum-mechanical energies and forces with reference
system observables, to produce stable and accurate NNIPs. StABlE Training
iteratively runs MD simulations to seek out unstable regions, and corrects the
instabilities via supervision with a reference observable. The training
procedure is enabled by the Boltzmann Estimator, which allows efficient
computation of gradients required to train neural networks to system
observables, and can detect both global and local instabilities. We demonstrate
our methodology across organic molecules, tetrapeptides, and condensed phase
systems, along with using three modern NNIP architectures. In all three cases,
StABlE-trained models achieve significant improvements in simulation stability
and recovery of structural and dynamic observables. In some cases,
StABlE-trained models outperform conventional models trained on datasets 50
times larger. As a general framework applicable across NNIP architectures and
systems, StABlE Training is a powerful tool for training stable and accurate
NNIPs, particularly in the absence of large reference datasets.
- Abstract(参考訳): ニューラルネットワーク間ポテンシャル(NNIP)は、分子動力学(MD)シミュレーションのためのab-initio法に代わる魅力的な方法である。
しかし、非物理的状態をサンプリングする不安定なシミュレーションを生成でき、より長い時間スケールで発生する現象のモデル化に有用性が制限される。
これらの課題に対処するために,量子力学的エネルギーと力による従来の教師付きトレーニングと参照系観測装置を組み合わせたマルチモーダルトレーニング手順であるstable(stable)トレーニングを行い,安定かつ正確なnnipsを生成する。
安定トレーニングは、不安定な領域を求めるためにmdシミュレーションを繰り返し実行し、参照観測可能な監督によって不安定性を修正する。
トレーニング手順はボルツマン推定器(boltzmann estimator)によって実現されており、ニューラルネットワークをシステム観測に訓練するのに必要な勾配の効率的な計算を可能にし、グローバルとローカルの両方の不安定性を検出することができる。
我々は, 有機分子, テトラペプチド, 凝縮相系および3つの近代NNIPアーキテクチャを用いた方法論を実証した。
3つのケースすべてにおいて、StABlEで訓練されたモデルは、シミュレーションの安定性と構造および動的可観測物の回復において大幅に改善された。
場合によっては、安定したトレーニングされたモデルは、データセットでトレーニングされた従来のモデルよりも50倍大きい。
NNIPアーキテクチャやシステムに適用可能な一般的なフレームワークとして、StABlE Trainingは、特に大規模な参照データセットがない場合に、安定的で正確なNNIPをトレーニングするための強力なツールである。
関連論文リスト
- A Multi-Grained Symmetric Differential Equation Model for Learning
Protein-Ligand Binding Dynamics [74.93549765488103]
薬物発見において、分子動力学シミュレーションは、結合親和性を予測し、輸送特性を推定し、ポケットサイトを探索する強力なツールを提供する。
我々は,数値MDを容易にし,タンパク質-リガンド結合の正確なシミュレーションを提供する,最初の機械学習サロゲートであるNeuralMDを提案する。
我々は、標準的な数値MDシミュレーションよりも2000$times$のスピードアップを達成し、安定性の指標の下では、他のMLアプローチよりも最大80%高い効率で、NeuralMDの有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-01-26T09:35:17Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Stabilizing Machine Learning Prediction of Dynamics: Noise and
Noise-inspired Regularization [58.720142291102135]
近年、機械学習(ML)モデルはカオス力学系の力学を正確に予測するために訓練可能であることが示されている。
緩和技術がなければ、この技術は人工的に迅速にエラーを発生させ、不正確な予測と/または気候不安定をもたらす可能性がある。
トレーニング中にモデル入力に付加される多数の独立雑音実効化の効果を決定論的に近似する正規化手法であるLinearized Multi-Noise Training (LMNT)を導入する。
論文 参考訳(メタデータ) (2022-11-09T23:40:52Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Neural net modeling of equilibria in NSTX-U [0.0]
我々は平衡モデルと形状制御モデルに関連する2つのニューラルネットワークを開発する。
ネットワークにはEFIT01再構成アルゴリズムでトレーニングされた自由境界均衡解法であるEqnetと、Gspert符号でトレーニングされたPertnetが含まれる。
本報告では,これらのモデルが閉ループシミュレーションで確実に使用できることを示す。
論文 参考訳(メタデータ) (2022-02-28T16:09:58Z) - Learning Stochastic Dynamics with Statistics-Informed Neural Network [0.4297070083645049]
データからダイナミクスを学習するための、統計情報ニューラルネットワーク(SINN)という機械学習フレームワークを導入する。
本研究では,ニューラルネットワークモデルの学習機構を考案し,対象プロセスの正しい統計的挙動を再現する。
得られた低次モデルが時間的に粗い粒度データに基づいて訓練可能であることを示す。
論文 参考訳(メタデータ) (2022-02-24T18:21:01Z) - Using scientific machine learning for experimental bifurcation analysis
of dynamic systems [2.204918347869259]
本研究は、極限サイクルを持つ物理非線形力学系に対する普遍微分方程式(UDE)モデルの訓練に焦点をあてる。
数値シミュレーションによりトレーニングデータを生成する例を考察するとともに,提案するモデリング概念を物理実験に適用する。
ニューラルネットワークとガウス過程の両方を、力学モデルと共に普遍近似器として使用し、UDEモデリングアプローチの正確性と堅牢性を批判的に評価する。
論文 参考訳(メタデータ) (2021-10-22T15:43:03Z) - Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments [3.1829446824051195]
従来のGM-NNモデルに基づいて改良されたNNアーキテクチャを提案する。
改善された方法論は、アクティブラーニングやラーニング・オン・ザ・フライ(Learning-on-the-fly)といったトレーニング・ヘビーの前提条件である。
論文 参考訳(メタデータ) (2021-09-20T14:23:34Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z) - SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate
Interatomic Potentials [0.17590081165362778]
NequIPは分子動力学シミュレーションのためのab-initio計算から原子間電位を学習するためのSE(3)等価ニューラルネットワークアプローチである。
この方法は、顕著なデータ効率を示しながら、様々な分子や材料の挑戦的な集合に対して最先端の精度を達成する。
論文 参考訳(メタデータ) (2021-01-08T18:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。