論文の概要: Denoise Pretraining on Nonequilibrium Molecules for Accurate and
Transferable Neural Potentials
- arxiv url: http://arxiv.org/abs/2303.02216v2
- Date: Thu, 6 Jul 2023 03:53:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 17:49:27.100368
- Title: Denoise Pretraining on Nonequilibrium Molecules for Accurate and
Transferable Neural Potentials
- Title(参考訳): 高精度・伝達可能なニューラルポテンシャルのための非平衡分子のDenoise Pretraining
- Authors: Yuyang Wang, Changwen Xu, Zijie Li, Amir Barati Farimani
- Abstract要約: より正確で伝達可能なGNNポテンシャル予測を実現するために,非平衡分子配座の事前学習を提案する。
小分子で事前学習したモデルでは、顕著な伝達性を示し、多様な分子系で微調整された場合の性能が向上した。
- 参考スコア(独自算出の注目度): 8.048439531116367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in equivariant graph neural networks (GNNs) have made deep
learning amenable to developing fast surrogate models to expensive ab initio
quantum mechanics (QM) approaches for molecular potential predictions. However,
building accurate and transferable potential models using GNNs remains
challenging, as the data is greatly limited by the expensive computational
costs and level of theory of QM methods, especially for large and complex
molecular systems. In this work, we propose denoise pretraining on
nonequilibrium molecular conformations to achieve more accurate and
transferable GNN potential predictions. Specifically, atomic coordinates of
sampled nonequilibrium conformations are perturbed by random noises and GNNs
are pretrained to denoise the perturbed molecular conformations which recovers
the original coordinates. Rigorous experiments on multiple benchmarks reveal
that pretraining significantly improves the accuracy of neural potentials.
Furthermore, we show that the proposed pretraining approach is model-agnostic,
as it improves the performance of different invariant and equivariant GNNs.
Notably, our models pretrained on small molecules demonstrate remarkable
transferability, improving performance when fine-tuned on diverse molecular
systems, including different elements, charged molecules, biomolecules, and
larger systems. These results highlight the potential for leveraging denoise
pretraining approaches to build more generalizable neural potentials for
complex molecular systems.
- Abstract(参考訳): 等変グラフニューラルネットワーク(GNN)の最近の進歩は、分子ポテンシャル予測のための高価なアブ初期量子力学(QM)アプローチへの高速サロゲートモデルの開発に深層学習が適している。
しかしながら、gnnを用いた正確で転送可能なポテンシャルモデルの構築は、特に大規模で複雑な分子システムにおいて、高価な計算コストとqm法の理論のレベルによって非常に制限されるため、依然として困難である。
本研究では,非平衡分子配座を事前学習して,より正確かつ伝達可能なGNNポテンシャル予測を実現することを提案する。
具体的には、サンプル非平衡配座の原子座標はランダムノイズによって摂動され、GNNは、元の座標を復元する摂動分子配座を飾るために事前訓練される。
複数のベンチマークでの厳密な実験は、事前学習が神経電位の精度を大幅に向上させることを示した。
さらに,提案手法はモデル非依存であり,異なる不変量および同変量gnnの性能が向上することを示した。
特に, 分子にプリトレーニングされたモデルでは, 異種分子, 荷電分子, 生体分子, 大型分子など, 様々な分子系に微調整した場合の性能が向上する。
これらの結果は、複雑な分子系に対してより一般化可能なニューラルポテンシャルを構築するために、denoise Pretrainingアプローチを活用する可能性を強調している。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - Active learning of Boltzmann samplers and potential energies with quantum mechanical accuracy [1.7633275579210346]
我々は,強化サンプリングと深層生成モデルを組み合わせるアプローチと,機械学習ポテンシャルの能動的学習を併用したアプローチを開発する。
本手法を用いて, 医療・生物学分野における多種多様なシステム群に属する超小型の銀ナノクラスターの異性化について検討する。
論文 参考訳(メタデータ) (2024-01-29T19:01:31Z) - Towards Predicting Equilibrium Distributions for Molecular Systems with
Deep Learning [60.02391969049972]
本稿では,分子系の平衡分布を予測するために,分散グラフマー(DiG)と呼ばれる新しいディープラーニングフレームワークを導入する。
DiGはディープニューラルネットワークを用いて分子系の記述子に条件付き平衡分布に単純な分布を変換する。
論文 参考訳(メタデータ) (2023-06-08T17:12:08Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - Graph Neural Networks for Temperature-Dependent Activity Coefficient
Prediction of Solutes in Ionic Liquids [58.720142291102135]
IL中の溶質の温度依存性無限希釈交流を予測するためのGNNを提案する。
我々は、GNNを4万以上のAC値を含むデータベース上でトレーニングし、最先端のMCMと比較する。
GNNとMCMも同様に高い予測性能を達成し、GNNはトレーニング中に考慮されていないILと溶質を含む溶液のACに対して高品質な予測を可能にする。
論文 参考訳(メタデータ) (2022-06-23T15:27:29Z) - Accurate Machine Learned Quantum-Mechanical Force Fields for
Biomolecular Simulations [51.68332623405432]
分子動力学(MD)シミュレーションは、化学的および生物学的プロセスに関する原子論的な洞察を可能にする。
近年,MDシミュレーションの代替手段として機械学習力場(MLFF)が出現している。
本研究は、大規模分子シミュレーションのための正確なMLFFを構築するための一般的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-17T13:08:28Z) - GeoDiff: a Geometric Diffusion Model for Molecular Conformation
Generation [102.85440102147267]
分子配座予測のための新しい生成モデルGeoDiffを提案する。
GeoDiffは、既存の最先端のアプローチよりも優れているか、あるいは同等であることを示す。
論文 参考訳(メタデータ) (2022-03-06T09:47:01Z) - Fast and Sample-Efficient Interatomic Neural Network Potentials for
Molecules and Materials Based on Gaussian Moments [3.1829446824051195]
従来のGM-NNモデルに基づいて改良されたNNアーキテクチャを提案する。
改善された方法論は、アクティブラーニングやラーニング・オン・ザ・フライ(Learning-on-the-fly)といったトレーニング・ヘビーの前提条件である。
論文 参考訳(メタデータ) (2021-09-20T14:23:34Z) - Learning neural network potentials from experimental data via
Differentiable Trajectory Reweighting [0.0]
ニューラルネットワーク(NN)電位を直接実験データから学習するトップダウンアプローチは、あまり注目されていない。
本稿では,時間非依存オブザーバのMDシミュレーションにより,微分を回避できるDiffTRe法を提案する。
本研究では,ダイヤモンドの原子モデルと粒度の粗い水モデルに対するNN電位の学習におけるDiffTReの有効性を示す。
論文 参考訳(メタデータ) (2021-06-02T13:10:43Z) - SE(3)-Equivariant Graph Neural Networks for Data-Efficient and Accurate
Interatomic Potentials [0.17590081165362778]
NequIPは分子動力学シミュレーションのためのab-initio計算から原子間電位を学習するためのSE(3)等価ニューラルネットワークアプローチである。
この方法は、顕著なデータ効率を示しながら、様々な分子や材料の挑戦的な集合に対して最先端の精度を達成する。
論文 参考訳(メタデータ) (2021-01-08T18:49:10Z) - Symmetry-adapted graph neural networks for constructing molecular
dynamics force fields [10.820190246285122]
分子動力学シミュレーションのための力場を自動構築する対称性適応グラフニューラルネットワークフレームワークを開発した。
MDGNNは古典的分子動力学と第一原理分子動力学の両方の結果を正確に再現する。
論文 参考訳(メタデータ) (2021-01-08T09:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。