論文の概要: Transfer learning for chemically accurate interatomic neural network
potentials
- arxiv url: http://arxiv.org/abs/2212.03916v1
- Date: Wed, 7 Dec 2022 19:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:20:25.882763
- Title: Transfer learning for chemically accurate interatomic neural network
potentials
- Title(参考訳): 化学精度の高い原子間ニューラルネットワークポテンシャルの伝達学習
- Authors: Viktor Zaverkin, David Holzm\"uller, Luca Bonfirraro, and Johannes
K\"astner
- Abstract要約: 密度汎関数計算から得られたデータに基づいてネットワークパラメータを事前学習することにより、より正確なab-initioデータに基づいてトレーニングされたモデルのサンプル効率が向上することを示す。
ANI-1x および ANI-1ccx データセット上で事前訓練および微調整されたGM-NN電位を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing machine learning-based interatomic potentials from ab-initio
electronic structure methods remains a challenging task for computational
chemistry and materials science. This work studies the capability of transfer
learning for efficiently generating chemically accurate interatomic neural
network potentials on organic molecules from the MD17 and ANI data sets. We
show that pre-training the network parameters on data obtained from density
functional calculations considerably improves the sample efficiency of models
trained on more accurate ab-initio data. Additionally, we show that fine-tuning
with energy labels alone suffices to obtain accurate atomic forces and run
large-scale atomistic simulations. We also investigate possible limitations of
transfer learning, especially regarding the design and size of the pre-training
and fine-tuning data sets. Finally, we provide GM-NN potentials pre-trained and
fine-tuned on the ANI-1x and ANI-1ccx data sets, which can easily be fine-tuned
on and applied to organic molecules.
- Abstract(参考訳): ab-initio電子構造法による機械学習に基づく原子間ポテンシャルの開発は、計算化学と材料科学にとって難しい課題である。
本研究は, MD17およびANIデータセットから有機分子上で, 化学的に正確な原子間ニューラルネットワーク電位を効率的に生成するための伝達学習能力について検討した。
密度汎関数計算から得られたデータからネットワークパラメータを事前学習することで,より正確なab-initioデータに基づくモデルのサンプル効率が大幅に向上することを示す。
さらに,エネルギーラベルのみによる微調整は,正確な原子間力を得るのに十分であり,大規模な原子間力シミュレーションを行う。
また,特に事前学習および微調整データセットの設計とサイズに関して,転送学習の限界について検討する。
最後に, ANI-1x および ANI-1ccx データセット上で事前訓練および微調整を行い, 有機分子に容易に微調整できる GM-NN 電位を提供する。
関連論文リスト
- Predicting ionic conductivity in solids from the machine-learned potential energy landscape [68.25662704255433]
超イオン材料は、エネルギー密度と安全性を向上させる固体電池の推進に不可欠である。
このような物質を同定するための従来の計算手法は資源集約的であり、容易ではない。
普遍的原子間ポテンシャル解析によるイオン伝導率の迅速かつ確実な評価手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T09:01:36Z) - Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - Synthetic pre-training for neural-network interatomic potentials [0.0]
本研究は,ニューラルネットワークを用いた原子間ポテンシャルモデルにおいて,既存の機械学習ポテンシャルと大規模に比較して得られる合成原子構造データが有用な事前学習課題であることを示す。
一度大きな合成データセットで事前訓練すると、これらのモデルはより小さく、量子力学的なモデルに微調整され、計算の練習における数値的精度と安定性が向上する。
論文 参考訳(メタデータ) (2023-07-24T17:16:24Z) - On the Interplay of Subset Selection and Informed Graph Neural Networks [3.091456764812509]
この研究は、QM9データセットにおける分子の原子化エネルギーの予測に焦点を当てている。
トレーニングセット選択過程における分子多様性の最大化は,線形回帰法および非線形回帰法のロバスト性を高めることを示す。
また、モデルに依存しない説明器を用いて、グラフニューラルネットワークによる予測の信頼性を確認する。
論文 参考訳(メタデータ) (2023-06-15T09:09:27Z) - Transfer learning for atomistic simulations using GNNs and kernel mean
embeddings [24.560340485988128]
本稿では, グラフニューラルネットワーク(GNN)を用いて, カーネル平均埋め込みとともに, 化学環境を表現するトランスファー学習アルゴリズムを提案する。
我々は,複雑性を増大させる一連の現実的なデータセットに対して,我々のアプローチを検証し,優れた一般化と伝達可能性性能を示す。
論文 参考訳(メタデータ) (2023-06-02T14:58:16Z) - Accurate Machine Learned Quantum-Mechanical Force Fields for
Biomolecular Simulations [51.68332623405432]
分子動力学(MD)シミュレーションは、化学的および生物学的プロセスに関する原子論的な洞察を可能にする。
近年,MDシミュレーションの代替手段として機械学習力場(MLFF)が出現している。
本研究は、大規模分子シミュレーションのための正確なMLFFを構築するための一般的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-17T13:08:28Z) - Improving Molecular Representation Learning with Metric
Learning-enhanced Optimal Transport [49.237577649802034]
分子レグレッション問題に対する一般化能力を高めるために,MROTと呼ばれる新しい最適輸送ベースアルゴリズムを開発した。
MROTは最先端のモデルよりも優れており、新しい物質の発見を加速する有望な可能性を示している。
論文 参考訳(メタデータ) (2022-02-13T04:56:18Z) - Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments [3.1829446824051195]
従来のGM-NNモデルに基づいて改良されたNNアーキテクチャを提案する。
改善された方法論は、アクティブラーニングやラーニング・オン・ザ・フライ(Learning-on-the-fly)といったトレーニング・ヘビーの前提条件である。
論文 参考訳(メタデータ) (2021-09-20T14:23:34Z) - Gaussian Moments as Physically Inspired Molecular Descriptors for
Accurate and Scalable Machine Learning Potentials [0.0]
本稿では,フィードフォワードニューラルネットワークに基づく高次元ポテンシャルエネルギー表面構築のための機械学習手法を提案する。
化学空間と構成空間の両方を表すために開発されたアプローチの精度は、いくつかの確立された機械学習モデルの1つに匹敵する。
論文 参考訳(メタデータ) (2021-09-15T16:46:46Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z) - BIGDML: Towards Exact Machine Learning Force Fields for Materials [55.944221055171276]
機械学習力場(MLFF)は正確で、計算的で、データ効率が良く、分子、材料、およびそれらのインターフェースに適用できなければならない。
ここでは、Bravais-Inspired Gradient-Domain Machine Learningアプローチを導入し、わずか10-200原子のトレーニングセットを用いて、信頼性の高い力場を構築する能力を実証する。
論文 参考訳(メタデータ) (2021-06-08T10:14:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。