論文の概要: SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate
Interatomic Potentials
- arxiv url: http://arxiv.org/abs/2101.03164v1
- Date: Fri, 8 Jan 2021 18:49:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 04:58:49.282197
- Title: SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate
Interatomic Potentials
- Title(参考訳): SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate Interatomic potentials
- Authors: Simon Batzner, Tess E. Smidt, Lixin Sun, Jonathan P. Mailoa, Mordechai
Kornbluth, Nicola Molinari, and Boris Kozinsky
- Abstract要約: NequIPは分子動力学シミュレーションのためのab-initio計算から原子間電位を学習するためのSE(3)等価ニューラルネットワークアプローチである。
この方法は、顕著なデータ効率を示しながら、様々な分子や材料の挑戦的な集合に対して最先端の精度を達成する。
- 参考スコア(独自算出の注目度): 0.17590081165362778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents Neural Equivariant Interatomic Potentials (NequIP), a
SE(3)-equivariant neural network approach for learning interatomic potentials
from ab-initio calculations for molecular dynamics simulations. While most
contemporary symmetry-aware models use invariant convolutions and only act on
scalars, NequIP employs SE(3)-equivariant convolutions for interactions of
geometric tensors, resulting in a more information-rich and faithful
representation of atomic environments. The method achieves state-of-the-art
accuracy on a challenging set of diverse molecules and materials while
exhibiting remarkable data efficiency. NequIP outperforms existing models with
up to three orders of magnitude fewer training data, challenging the widely
held belief that deep neural networks require massive training sets. The high
data efficiency of the method allows for the construction of accurate
potentials using high-order quantum chemical level of theory as reference and
enables high-fidelity molecular dynamics simulations over long time scales.
- Abstract(参考訳): この研究は、分子動力学シミュレーションのためのab-initio計算から原子間ポテンシャルを学習するためのSE(3)-equivariant Neural Network approachであるNequIP(NequIP)を提示する。
現代の対称性認識モデルのほとんどは不変畳み込みを使い、スカラーにのみ作用するが、nequipは幾何学的テンソルの相互作用にse(3)同変畳み込みを用いる。
この方法は、顕著なデータ効率を示しながら、様々な分子や材料の挑戦的な集合に対して最先端の精度を達成する。
NequIPは既存のモデルを最大3桁のトレーニングデータで上回り、ディープニューラルネットワークが大量のトレーニングセットを必要とするという広く信じられている信念に挑戦する。
この手法の高データ効率は、高次量子化学レベルの理論を基準として精度の高いポテンシャルの構築を可能にし、長期にわたって高忠実度分子動力学シミュレーションを可能にする。
関連論文リスト
- Equivariant Graph Neural Operator for Modeling 3D Dynamics [148.98826858078556]
我々は,次のステップの予測ではなく,ダイナミックスを直接トラジェクトリとしてモデル化するために,Equivariant Graph Neural Operator (EGNO)を提案する。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - Synthetic pre-training for neural-network interatomic potentials [0.0]
本研究は,ニューラルネットワークを用いた原子間ポテンシャルモデルにおいて,既存の機械学習ポテンシャルと大規模に比較して得られる合成原子構造データが有用な事前学習課題であることを示す。
一度大きな合成データセットで事前訓練すると、これらのモデルはより小さく、量子力学的なモデルに微調整され、計算の練習における数値的精度と安定性が向上する。
論文 参考訳(メタデータ) (2023-07-24T17:16:24Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Denoise Pretraining on Nonequilibrium Molecules for Accurate and
Transferable Neural Potentials [8.048439531116367]
より正確で伝達可能なGNNポテンシャル予測を実現するために,非平衡分子配座の事前学習を提案する。
小分子で事前学習したモデルでは、顕著な伝達性を示し、多様な分子系で微調整された場合の性能が向上した。
論文 参考訳(メタデータ) (2023-03-03T21:15:22Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Physically constrained neural networks to solve the inverse problem for
neuron models [0.29005223064604074]
システム生物学とシステム神経生理学は、生体医学科学における多くの重要な応用のための強力なツールである。
ディープニューラルネットワークの分野における最近の進歩は、非線形で普遍的な近似を定式化する可能性を示している。
論文 参考訳(メタデータ) (2022-09-24T12:51:15Z) - Multi-fidelity Hierarchical Neural Processes [79.0284780825048]
多要素代理モデリングは、異なるシミュレーション出力を融合させることで計算コストを削減する。
本稿では,多階層型階層型ニューラルネットワーク(MF-HNP)を提案する。
疫学および気候モデリングタスクにおけるMF-HNPの評価を行い、精度と不確実性評価の観点から競合性能を達成した。
論文 参考訳(メタデータ) (2022-06-10T04:54:13Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments [3.1829446824051195]
従来のGM-NNモデルに基づいて改良されたNNアーキテクチャを提案する。
改善された方法論は、アクティブラーニングやラーニング・オン・ザ・フライ(Learning-on-the-fly)といったトレーニング・ヘビーの前提条件である。
論文 参考訳(メタデータ) (2021-09-20T14:23:34Z) - Learning the exchange-correlation functional from nature with fully
differentiable density functional theory [0.0]
我々は、完全に微分可能な3次元コーン・シャム密度汎関数論フレームワーク内での交換相関関数を置き換えるためにニューラルネットワークを訓練する。
我々の訓練された交換相関ネットワークは110分子の集合体における原子化とイオン化エネルギーの予測を改善した。
論文 参考訳(メタデータ) (2021-02-08T14:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。