論文の概要: Learning Interatomic Potentials at Multiple Scales
- arxiv url: http://arxiv.org/abs/2310.13756v1
- Date: Fri, 20 Oct 2023 18:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 05:40:25.929224
- Title: Learning Interatomic Potentials at Multiple Scales
- Title(参考訳): 複数のスケールで原子間ポテンシャルを学ぶ
- Authors: Xiang Fu, Albert Musaelian, Anders Johansson, Tommi Jaakkola, Boris
Kozinsky
- Abstract要約: 短時間のステップを使う必要性は、分子動力学(MD)シミュレーションの速度における鍵となる限界である。
本研究では,2つのMLIPを協調学習することにより,複雑な原子間相互作用のスケール分離を学習する手法を提案する。
- 参考スコア(独自算出の注目度): 1.2162698943818964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The need to use a short time step is a key limit on the speed of molecular
dynamics (MD) simulations. Simulations governed by classical potentials are
often accelerated by using a multiple-time-step (MTS) integrator that evaluates
certain potential energy terms that vary more slowly than others less
frequently. This approach is enabled by the simple but limiting analytic forms
of classical potentials. Machine learning interatomic potentials (MLIPs), in
particular recent equivariant neural networks, are much more broadly applicable
than classical potentials and can faithfully reproduce the expensive but
accurate reference electronic structure calculations used to train them. They
still, however, require the use of a single short time step, as they lack the
inherent term-by-term scale separation of classical potentials. This work
introduces a method to learn a scale separation in complex interatomic
interactions by co-training two MLIPs. Initially, a small and efficient model
is trained to reproduce short-time-scale interactions. Subsequently, a large
and expressive model is trained jointly to capture the remaining interactions
not captured by the small model. When running MD, the MTS integrator then
evaluates the smaller model for every time step and the larger model less
frequently, accelerating simulation. Compared to a conventionally trained MLIP,
our approach can achieve a significant speedup (~3x in our experiments) without
a loss of accuracy on the potential energy or simulation-derived quantities.
- Abstract(参考訳): 短時間のステップを使う必要性は、分子動力学(MD)シミュレーションの速度における重要な限界である。
古典ポテンシャルによって支配されるシミュレーションは、しばしば、より頻度の低い特定のポテンシャルエネルギー項を評価する多重時間ステップ積分器(MTS)を用いて加速される。
このアプローチは古典ポテンシャルの単純だが限定的な解析形式によって実現される。
機械学習の原子間ポテンシャル(mlip)、特に最近の等価ニューラルネットワークは、古典的ポテンシャルよりも広く適用でき、それらを訓練するのに使用される高価なが正確な参照電子構造計算を忠実に再現することができる。
しかし、それらは古典的ポテンシャルの項ごとのスケール分離が欠如しているため、単一短時間のステップを使用する必要がある。
本研究では,2つのMLIPを協調学習することにより,複雑な原子間相互作用のスケール分離を学習する手法を提案する。
最初は、小規模で効率的なモデルを訓練して、短時間の相互作用を再現する。
その後、大規模で表現力に富んだモデルが訓練され、小さなモデルで捉えられていない残りの相互作用を捉える。
mdを実行すると、mtsインテグレータはステップ毎に小さなモデルを評価し、より大きなモデルではより頻度の低いモデルでシミュレーションを加速する。
従来のMLIPと比較して,本手法はポテンシャルエネルギーやシミュレーションから得られた量の精度を損なうことなく,大幅なスピードアップ(実験では約3倍)を達成することができる。
関連論文リスト
- Generalized quantum master equations can improve the accuracy of semiclassical predictions of multitime correlation functions [0.0]
時空量子相関関数は物理科学の中心的な対象である。
2次元分光法や量子制御のような実験は、今ではそのような量を測定することができる。
我々は,多時間半古典的GQMEを利用して,粗い平均場Ehrenfestのダイナミクスの精度を劇的に向上できることを示す。
論文 参考訳(メタデータ) (2024-05-14T22:34:59Z) - Machine learning of hidden variables in multiscale fluid simulation [77.34726150561087]
流体力学方程式を解くには、しばしばミクロ物理学の欠如を考慮に入れた閉包関係を用いる必要がある。
本研究では, 終端微分可能な偏微分方程式シミュレータを用いて, 偏微分ニューラルネットワークを訓練する。
本手法により, 非線形, 大型クヌーズン数プラズマ物理を再現する方程式に基づく手法が可能であることを示す。
論文 参考訳(メタデータ) (2023-06-19T06:02:53Z) - Implicit Transfer Operator Learning: Multiple Time-Resolution Surrogates
for Molecular Dynamics [8.35780131268962]
シミュレーションプロセスのサロゲートを複数の時間分解能で学習するフレームワークであるImplict Transfer Operator (ITO) Learningを提案する。
また、全原子分子動力学を定量的にモデル化できる粗粒CG-SE3-ITOモデルを提案する。
論文 参考訳(メタデータ) (2023-05-29T12:19:41Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Accurate Machine Learned Quantum-Mechanical Force Fields for
Biomolecular Simulations [51.68332623405432]
分子動力学(MD)シミュレーションは、化学的および生物学的プロセスに関する原子論的な洞察を可能にする。
近年,MDシミュレーションの代替手段として機械学習力場(MLFF)が出現している。
本研究は、大規模分子シミュレーションのための正確なMLFFを構築するための一般的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-17T13:08:28Z) - Simulate Time-integrated Coarse-grained Molecular Dynamics with
Multi-Scale Graph Networks [4.444748822792469]
学習に基づく力場はアブ・イニシアトMDシミュレーションの高速化に大きな進歩を遂げているが、現実の多くのアプリケーションでは不十分である。
非常に大きな時間ステップで、粗粒MDを直接シミュレートするマルチスケールグラフニューラルネットワークを学習することで、これらの課題に対処することを目指している。
論文 参考訳(メタデータ) (2022-04-21T18:07:08Z) - Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments [3.1829446824051195]
従来のGM-NNモデルに基づいて改良されたNNアーキテクチャを提案する。
改善された方法論は、アクティブラーニングやラーニング・オン・ザ・フライ(Learning-on-the-fly)といったトレーニング・ヘビーの前提条件である。
論文 参考訳(メタデータ) (2021-09-20T14:23:34Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z) - SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate
Interatomic Potentials [0.17590081165362778]
NequIPは分子動力学シミュレーションのためのab-initio計算から原子間電位を学習するためのSE(3)等価ニューラルネットワークアプローチである。
この方法は、顕著なデータ効率を示しながら、様々な分子や材料の挑戦的な集合に対して最先端の精度を達成する。
論文 参考訳(メタデータ) (2021-01-08T18:49:10Z) - Fast and differentiable simulation of driven quantum systems [58.720142291102135]
我々は、ダイソン展開に基づく半解析手法を導入し、標準数値法よりもはるかに高速に駆動量子系を時間発展させることができる。
回路QEDアーキテクチャにおけるトランスモン量子ビットを用いた2量子ゲートの最適化結果を示す。
論文 参考訳(メタデータ) (2020-12-16T21:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。