論文の概要: Denoise Pre-training on Non-equilibrium Molecules for Accurate and
Transferable Neural Potentials
- arxiv url: http://arxiv.org/abs/2303.02216v1
- Date: Fri, 3 Mar 2023 21:15:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 21:01:31.323628
- Title: Denoise Pre-training on Non-equilibrium Molecules for Accurate and
Transferable Neural Potentials
- Title(参考訳): 精度・伝達性ニューラルポテンシャルのための非平衡分子のDenoise事前学習
- Authors: Yuyang Wang, Changwen Xu, Zijie Li, Amir Barati Farimani
- Abstract要約: 我々は,非平衡分子配座の事前学習を行い,より正確で伝達可能なGNNポテンシャル予測を実現することを提案する。
GNNはサンプル非平衡配向の原子座標に付加されるランダムノイズを予測することによって事前訓練される。
小分子で事前学習したモデルでは、顕著な伝達性を示し、多様な分子系で微調整された場合の性能が向上する。
- 参考スコア(独自算出の注目度): 8.048439531116367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning methods, particularly recent advances in equivariant graph
neural networks (GNNs), have been investigated as surrogate models to expensive
ab initio quantum mechanics (QM) approaches for molecular potential
predictions. However, building accurate and transferable potential models using
GNNs remains challenging, as the quality and quantity of data are greatly
limited by QM calculations, especially for large and complex molecular systems.
In this work, we propose denoise pre-training on non-equilibrium molecular
conformations to achieve more accurate and transferable GNN potential
predictions. Specifically, GNNs are pre-trained by predicting the random noises
added to atomic coordinates of sampled non-equilibrium conformations. Rigorous
experiments on multiple benchmarks reveal that pre-training significantly
improves the accuracy of neural potentials. Furthermore, we show that the
proposed pre-training approach is model-agnostic, as it improves the
performance of different invariant and equivariant GNNs. Notably, our models
pre-trained on small molecules demonstrate remarkable transferability,
improving performance when fine-tuned on diverse molecular systems, including
different elements, charged molecules, biomolecules, and larger systems. These
results highlight the potential for leveraging denoise pre-training approaches
to build more generalizable neural potentials for complex molecular systems.
- Abstract(参考訳): 機械学習手法、特に近年の同変グラフニューラルネットワーク(GNN)の進歩は、分子ポテンシャル予測のための高価な初期量子力学(QM)アプローチの代理モデルとして研究されている。
しかしながら、gnnを用いた正確で転送可能なポテンシャルモデルの構築は、qm計算、特に大規模で複雑な分子システムによって、データの品質と量が大幅に制限されるため、依然として困難である。
本研究では,非平衡分子配座の事前学習により,より正確かつ伝達可能なGNNポテンシャル予測を実現することを提案する。
具体的には、サンプル非平衡配向の原子座標に付加されるランダムノイズを予測することにより、GNNを事前訓練する。
複数のベンチマークでの厳密な実験は、事前学習が神経電位の精度を大幅に向上させることを示した。
さらに,提案手法がモデルに依存せず,異なる不変量および同変量gnnの性能を向上させることを示した。
特に,小分子で事前学習したモデルでは,異種分子,荷電分子,生体分子,大型分子を含む多種多様な分子系の微調整による性能向上が期待できる。
これらの結果は、複雑な分子系に対してより一般化可能な神経電位を構築するために、denoise pre-trainingアプローチを活用する可能性を強調している。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - Active learning of Boltzmann samplers and potential energies with quantum mechanical accuracy [1.7633275579210346]
我々は,強化サンプリングと深層生成モデルを組み合わせるアプローチと,機械学習ポテンシャルの能動的学習を併用したアプローチを開発する。
本手法を用いて, 医療・生物学分野における多種多様なシステム群に属する超小型の銀ナノクラスターの異性化について検討する。
論文 参考訳(メタデータ) (2024-01-29T19:01:31Z) - Towards Predicting Equilibrium Distributions for Molecular Systems with
Deep Learning [60.02391969049972]
本稿では,分子系の平衡分布を予測するために,分散グラフマー(DiG)と呼ばれる新しいディープラーニングフレームワークを導入する。
DiGはディープニューラルネットワークを用いて分子系の記述子に条件付き平衡分布に単純な分布を変換する。
論文 参考訳(メタデータ) (2023-06-08T17:12:08Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - Graph Neural Networks for Temperature-Dependent Activity Coefficient
Prediction of Solutes in Ionic Liquids [58.720142291102135]
IL中の溶質の温度依存性無限希釈交流を予測するためのGNNを提案する。
我々は、GNNを4万以上のAC値を含むデータベース上でトレーニングし、最先端のMCMと比較する。
GNNとMCMも同様に高い予測性能を達成し、GNNはトレーニング中に考慮されていないILと溶質を含む溶液のACに対して高品質な予測を可能にする。
論文 参考訳(メタデータ) (2022-06-23T15:27:29Z) - Accurate Machine Learned Quantum-Mechanical Force Fields for
Biomolecular Simulations [51.68332623405432]
分子動力学(MD)シミュレーションは、化学的および生物学的プロセスに関する原子論的な洞察を可能にする。
近年,MDシミュレーションの代替手段として機械学習力場(MLFF)が出現している。
本研究は、大規模分子シミュレーションのための正確なMLFFを構築するための一般的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-17T13:08:28Z) - GeoDiff: a Geometric Diffusion Model for Molecular Conformation
Generation [102.85440102147267]
分子配座予測のための新しい生成モデルGeoDiffを提案する。
GeoDiffは、既存の最先端のアプローチよりも優れているか、あるいは同等であることを示す。
論文 参考訳(メタデータ) (2022-03-06T09:47:01Z) - Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments [3.1829446824051195]
従来のGM-NNモデルに基づいて改良されたNNアーキテクチャを提案する。
改善された方法論は、アクティブラーニングやラーニング・オン・ザ・フライ(Learning-on-the-fly)といったトレーニング・ヘビーの前提条件である。
論文 参考訳(メタデータ) (2021-09-20T14:23:34Z) - Learning neural network potentials from experimental data via
Differentiable Trajectory Reweighting [0.0]
ニューラルネットワーク(NN)電位を直接実験データから学習するトップダウンアプローチは、あまり注目されていない。
本稿では,時間非依存オブザーバのMDシミュレーションにより,微分を回避できるDiffTRe法を提案する。
本研究では,ダイヤモンドの原子モデルと粒度の粗い水モデルに対するNN電位の学習におけるDiffTReの有効性を示す。
論文 参考訳(メタデータ) (2021-06-02T13:10:43Z) - SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate
Interatomic Potentials [0.17590081165362778]
NequIPは分子動力学シミュレーションのためのab-initio計算から原子間電位を学習するためのSE(3)等価ニューラルネットワークアプローチである。
この方法は、顕著なデータ効率を示しながら、様々な分子や材料の挑戦的な集合に対して最先端の精度を達成する。
論文 参考訳(メタデータ) (2021-01-08T18:49:10Z) - Symmetry-adapted graph neural networks for constructing molecular
dynamics force fields [10.820190246285122]
分子動力学シミュレーションのための力場を自動構築する対称性適応グラフニューラルネットワークフレームワークを開発した。
MDGNNは古典的分子動力学と第一原理分子動力学の両方の結果を正確に再現する。
論文 参考訳(メタデータ) (2021-01-08T09:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。