論文の概要: Broadening the Scope of Neural Network Potentials through Direct Inclusion of Additional Molecular Attributes
- arxiv url: http://arxiv.org/abs/2403.15073v2
- Date: Fri, 07 Feb 2025 08:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:52:49.738091
- Title: Broadening the Scope of Neural Network Potentials through Direct Inclusion of Additional Molecular Attributes
- Title(参考訳): 付加的な分子属性の直接包摂によるニューラルネットワーク電位のスコープの拡大
- Authors: Guillem Simeon, Antonio Mirarchi, Raul P. Pelaez, Raimondas Galvelis, Gianni De Fabritiis,
- Abstract要約: ニューラルネットワークのポテンシャル表現に追加の電子属性を含めることの重要性を実証する。
この修正によって、原子番号と位置のみの使用に起因する入力縮退が解決されることを示す。
これは、適切な戦略や物理学に基づくエネルギー用語を含めることなく達成される。
- 参考スコア(独自算出の注目度): 2.679689033125693
- License:
- Abstract: Most state-of-the-art neural network potentials do not account for molecular attributes other than atomic numbers and positions, which limits its range of applicability by design. In this work, we demonstrate the importance of including additional electronic attributes in neural network potential representations with a minimal architectural change to TensorNet, a state-of-the-art equivariant model based on Cartesian rank-2 tensor representations. By performing experiments on both custom-made and public benchmarking datasets, we show that this modification resolves the input degeneracy issues stemming from the use of atomic numbers and positions alone, while enhancing the model's predictive accuracy across diverse chemical systems with different charge or spin states. This is accomplished without tailored strategies or the inclusion of physics-based energy terms, while maintaining efficiency and accuracy. These findings should furthermore encourage researchers to train and use models incorporating these additional representations.
- Abstract(参考訳): ほとんどの最先端のニューラルネットワーク電位は、原子番号や位置以外の分子特性を考慮せず、設計による適用範囲を制限する。
本研究では、カルテシアン階数2テンソル表現に基づく最先端同変モデルであるTensorNetに対して、最小限のアーキテクチャ変更を伴うニューラルネットワークポテンシャル表現に電子的属性を加えることの重要性を示す。
この修正により、原子番号と位置だけで発生する入力縮退問題を解消し、異なる電荷やスピン状態を持つ様々な化学系の予測精度を高めながら、カスタムメイドおよびパブリックベンチマークデータセットの両方で実験を行うことで、モデルの予測精度を向上させる。
これは、効率と精度を維持しながら、適切な戦略や物理学に基づくエネルギー用語を含めることなく達成される。
これらの発見は、さらに研究者に、これらの追加表現を取り入れたモデルを訓練し、使用するよう促すだろう。
関連論文リスト
- The Importance of Being Scalable: Improving the Speed and Accuracy of Neural Network Interatomic Potentials Across Chemical Domains [4.340917737559795]
ニューラルネットワーク原子間ポテンシャル(NNIP)のスケーリングに関する研究
NNIPは、ab initio量子力学計算の代理モデルとして機能する。
我々は、スケーリング用に設計されたNNIPアーキテクチャを開発する: 効率よくスケールされた意識的原子間ポテンシャル(EScAIP)
論文 参考訳(メタデータ) (2024-10-31T17:35:57Z) - Higher-Rank Irreducible Cartesian Tensors for Equivariant Message Passing [23.754664894759234]
原子学シミュレーションは 化学の進歩に不可欠です
機械学習された原子間ポテンシャルは、計算コストのごく一部でアブイニシアト法と第一原理法と同等の精度を達成する。
論文 参考訳(メタデータ) (2024-05-23T07:31:20Z) - Understanding Self-attention Mechanism via Dynamical System Perspective [58.024376086269015]
SAM(Self-attention mechanism)は、人工知能の様々な分野で広く使われている。
常微分方程式(ODE)の高精度解における固有剛性現象(SP)は,高性能ニューラルネットワーク(NN)にも広く存在することを示す。
SAMは、本質的なSPを測定するためのモデルの表現能力を高めることができる剛性対応のステップサイズ適応器でもあることを示す。
論文 参考訳(メタデータ) (2023-08-19T08:17:41Z) - TensorNet: Cartesian Tensor Representations for Efficient Learning of
Molecular Potentials [4.169915659794567]
我々は、革新的なO(3)等価メッセージパッシングニューラルネットワークアーキテクチャであるNetを紹介する。
テンソル原子埋め込みを用いることで、機能混合は行列積演算により単純化される。
ポテンシャルエネルギーと力の上のベクトルとテンソル分子量の正確な予測が可能である。
論文 参考訳(メタデータ) (2023-06-10T16:41:18Z) - Graph neural networks for the prediction of molecular structure-property
relationships [59.11160990637615]
グラフニューラルネットワーク(GNN)は、分子グラフ上で直接動作する新しい機械学習手法である。
GNNは、エンドツーエンドでプロパティを学習できるため、情報記述子の必要性を回避することができる。
本稿では、分子特性予測のための2つの例を通して、GNNの基礎を説明し、GNNの応用を実証する。
論文 参考訳(メタデータ) (2022-07-25T11:30:44Z) - Neural network enhanced measurement efficiency for molecular
groundstates [63.36515347329037]
いくつかの分子量子ハミルトニアンの複雑な基底状態波動関数を学習するために、一般的なニューラルネットワークモデルを適用する。
ニューラルネットワークモデルを使用することで、単一コピー計測結果だけで観測対象を再構築するよりも堅牢な改善が得られます。
論文 参考訳(メタデータ) (2022-06-30T17:45:05Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Gaussian Moments as Physically Inspired Molecular Descriptors for
Accurate and Scalable Machine Learning Potentials [0.0]
本稿では,フィードフォワードニューラルネットワークに基づく高次元ポテンシャルエネルギー表面構築のための機械学習手法を提案する。
化学空間と構成空間の両方を表すために開発されたアプローチの精度は、いくつかの確立された機械学習モデルの1つに匹敵する。
論文 参考訳(メタデータ) (2021-09-15T16:46:46Z) - Multi-task learning for electronic structure to predict and explore
molecular potential energy surfaces [39.228041052681526]
我々はOrbNetモデルを洗練し、分子のエネルギー、力、その他の応答特性を正確に予測する。
このモデルは、すべての電子構造項に対する解析的勾配の導出により、エンドツーエンドで微分可能である。
ドメイン固有の特徴を用いることにより、化学空間をまたいで移動可能であることが示されている。
論文 参考訳(メタデータ) (2020-11-05T06:48:46Z) - Graph Neural Network for Hamiltonian-Based Material Property Prediction [56.94118357003096]
無機材料のバンドギャップを予測できるいくつかの異なるグラフ畳み込みネットワークを提示し、比較する。
モデルは、それぞれの軌道自体の情報と相互の相互作用の2つの異なる特徴を組み込むように開発されている。
その結果,クロスバリデーションにより予測精度が期待できることがわかった。
論文 参考訳(メタデータ) (2020-05-27T13:32:10Z) - Multi-View Graph Neural Networks for Molecular Property Prediction [67.54644592806876]
マルチビューグラフニューラルネットワーク(MV-GNN)を提案する。
MV-GNNでは,学習過程を安定させるために,自己注意型読み出しコンポーネントと不一致損失を導入する。
我々は、相互依存型メッセージパッシング方式を提案することにより、MV-GNNの表現力をさらに強化する。
論文 参考訳(メタデータ) (2020-05-17T04:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。