論文の概要: Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments
- arxiv url: http://arxiv.org/abs/2109.09569v1
- Date: Mon, 20 Sep 2021 14:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:14:06.272947
- Title: Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments
- Title(参考訳): ガウスモーメントに基づく分子・物質の高速かつサンプル効率の高い原子間ニューラルネットワークポテンシャル
- Authors: Viktor Zaverkin and David Holzm\"uller and Ingo Steinwart and Johannes
K\"astner
- Abstract要約: 従来のGM-NNモデルに基づいて改良されたNNアーキテクチャを提案する。
改善された方法論は、アクティブラーニングやラーニング・オン・ザ・フライ(Learning-on-the-fly)といったトレーニング・ヘビーの前提条件である。
- 参考スコア(独自算出の注目度): 3.1829446824051195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial neural networks (NNs) are one of the most frequently used machine
learning approaches to construct interatomic potentials and enable efficient
large-scale atomistic simulations with almost ab initio accuracy. However, the
simultaneous training of NNs on energies and forces, which are a prerequisite
for, e.g., molecular dynamics simulations, can be demanding. In this work, we
present an improved NN architecture based on the previous GM-NN model [V.
Zaverkin and J. K\"astner, J. Chem. Theory Comput. 16, 5410-5421 (2020)], which
shows an improved prediction accuracy and considerably reduced training times.
Moreover, we extend the applicability of Gaussian moment-based interatomic
potentials to periodic systems and demonstrate the overall excellent
transferability and robustness of the respective models. The fast training by
the improved methodology is a pre-requisite for training-heavy workflows such
as active learning or learning-on-the-fly.
- Abstract(参考訳): ニューラルネットワーク(NN)は、原子間ポテンシャルを構築し、ほぼ初期精度で効率的な大規模原子論シミュレーションを実現するために最も頻繁に使用される機械学習手法の1つである。
しかし、分子動力学シミュレーションなどの前提条件であるエネルギーと力に関するnnsの同時訓練が要求される。
本稿では,従来のGM-NNモデル[V]に基づく改良NNアーキテクチャを提案する。
ザバーキンとJ・K・アスターナー、J・チェム。
理論計算。
16,5410-5421 (2020)]では予測精度が向上し,トレーニング時間が大幅に短縮された。
さらに、ガウスモーメントに基づく原子間ポテンシャルを周期系に適用し、各モデルの全体的な優れた伝達性と堅牢性を示す。
改良された方法論による高速なトレーニングは、アクティブラーニングやラーニング・オン・ザ・フライのようなトレーニングの多いワークフローのための前提条件である。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Transfer learning for atomistic simulations using GNNs and kernel mean
embeddings [24.560340485988128]
本稿では, グラフニューラルネットワーク(GNN)を用いて, カーネル平均埋め込みとともに, 化学環境を表現するトランスファー学習アルゴリズムを提案する。
我々は,複雑性を増大させる一連の現実的なデータセットに対して,我々のアプローチを検証し,優れた一般化と伝達可能性性能を示す。
論文 参考訳(メタデータ) (2023-06-02T14:58:16Z) - Denoise Pretraining on Nonequilibrium Molecules for Accurate and
Transferable Neural Potentials [8.048439531116367]
より正確で伝達可能なGNNポテンシャル予測を実現するために,非平衡分子配座の事前学習を提案する。
小分子で事前学習したモデルでは、顕著な伝達性を示し、多様な分子系で微調整された場合の性能が向上した。
論文 参考訳(メタデータ) (2023-03-03T21:15:22Z) - Transfer learning for chemically accurate interatomic neural network
potentials [0.0]
密度汎関数計算から得られたデータに基づいてネットワークパラメータを事前学習することにより、より正確なab-initioデータに基づいてトレーニングされたモデルのサンプル効率が向上することを示す。
ANI-1x および ANI-1ccx データセット上で事前訓練および微調整されたGM-NN電位を提供する。
論文 参考訳(メタデータ) (2022-12-07T19:21:01Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Enhanced physics-constrained deep neural networks for modeling vanadium
redox flow battery [62.997667081978825]
本稿では,物理制約付き深部ニューラルネットワーク(PCDNN)による高精度電圧予測手法を提案する。
ePCDNNは、電圧放電曲線のテール領域を含む電荷放電サイクルを通して、電圧応答を正確にキャプチャすることができる。
論文 参考訳(メタデータ) (2022-03-03T19:56:24Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - ForceNet: A Graph Neural Network for Large-Scale Quantum Calculations [86.41674945012369]
スケーラブルで表現力のあるグラフニューラルネットワークモデルであるForceNetを開発し、原子力を近似します。
提案したForceNetは、最先端の物理ベースのGNNよりも正確に原子力を予測することができる。
論文 参考訳(メタデータ) (2021-03-02T03:09:06Z) - SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate
Interatomic Potentials [0.17590081165362778]
NequIPは分子動力学シミュレーションのためのab-initio計算から原子間電位を学習するためのSE(3)等価ニューラルネットワークアプローチである。
この方法は、顕著なデータ効率を示しながら、様々な分子や材料の挑戦的な集合に対して最先端の精度を達成する。
論文 参考訳(メタデータ) (2021-01-08T18:49:10Z) - U(1) symmetric recurrent neural networks for quantum state
reconstruction [0.4014524824655105]
我々は、スピン1/2XYモデルの基底状態を再構成するために、リカレントニューラルネットワーク(RNN)を用いる。
RNNにU(1)対称性を付与すると学習効率が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-27T18:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。