論文の概要: Ensemble Learning of Coarse-Grained Molecular Dynamics Force Fields with
a Kernel Approach
- arxiv url: http://arxiv.org/abs/2005.01851v1
- Date: Mon, 4 May 2020 21:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 01:32:09.786538
- Title: Ensemble Learning of Coarse-Grained Molecular Dynamics Force Fields with
a Kernel Approach
- Title(参考訳): カーネルアプローチによる粗粒分子動力学力場のアンサンブル学習
- Authors: Jiang Wang, Stefan Chmiela, Klaus-Robert M\"uller, Frank No\`e,
Cecilia Clementi
- Abstract要約: グラディエントドメイン機械学習(GDML)は、分子ポテンシャルと関連する力場を学習するための正確で効率的なアプローチである。
全原子シミュレーションデータから有効粗粒度(CG)モデルを学習するための応用を実証する。
アンサンブル学習と階層化サンプリングを用いて,データ効率とメモリ節約の代替案を提案する。
- 参考スコア(独自算出の注目度): 2.562811344441631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient-domain machine learning (GDML) is an accurate and efficient approach
to learn a molecular potential and associated force field based on the kernel
ridge regression algorithm. Here, we demonstrate its application to learn an
effective coarse-grained (CG) model from all-atom simulation data in a sample
efficient manner. The coarse-grained force field is learned by following the
thermodynamic consistency principle, here by minimizing the error between the
predicted coarse-grained force and the all-atom mean force in the
coarse-grained coordinates. Solving this problem by GDML directly is impossible
because coarse-graining requires averaging over many training data points,
resulting in impractical memory requirements for storing the kernel matrices.
In this work, we propose a data-efficient and memory-saving alternative. Using
ensemble learning and stratified sampling, we propose a 2-layer training scheme
that enables GDML to learn an effective coarse-grained model. We illustrate our
method on a simple biomolecular system, alanine dipeptide, by reconstructing
the free energy landscape of a coarse-grained variant of this molecule. Our
novel GDML training scheme yields a smaller free energy error than neural
networks when the training set is small, and a comparably high accuracy when
the training set is sufficiently large.
- Abstract(参考訳): 勾配領域機械学習(gdml)は、カーネルリッジ回帰アルゴリズムに基づく分子ポテンシャルと関連する力場を学ぶための正確かつ効率的なアプローチである。
そこで本研究では,全原子シミュレーションデータから有効粗粒度(CG)モデルを効率よく学習するための応用例を示す。
ここでは、予測された粗粒度力と粗粒度座標における全原子平均力との誤差を最小化することにより、熱力学的整合原理に従って粗粒度力場を学習する。
GDMLによるこの問題の解決は、粗粒化が多くのトレーニングデータポイントを平均化する必要があるため不可能であり、カーネル行列を格納するための非現実的なメモリ要求が生じる。
本稿では,データ効率とメモリ節約の代替案を提案する。
アンサンブル学習と階層化サンプリングを用いて,GDMLが効果的な粗粒度モデルの学習を可能にする2層学習手法を提案する。
本稿では,この分子の粗粒のフリーエネルギー景観を再構成し,単純な生体分子系であるアラニンジペプチドについて考察する。
我々の新しいGDMLトレーニングスキームは、トレーニングセットが小さい場合、ニューラルネットワークよりも少ない自由エネルギー誤差をもたらし、トレーニングセットが十分に大きい場合、比較可能なほど高い精度が得られる。
関連論文リスト
- A Multi-Grained Symmetric Differential Equation Model for Learning
Protein-Ligand Binding Dynamics [74.93549765488103]
薬物発見において、分子動力学シミュレーションは、結合親和性を予測し、輸送特性を推定し、ポケットサイトを探索する強力なツールを提供する。
我々は,数値MDを容易にし,タンパク質-リガンド結合の正確なシミュレーションを提供する,最初の機械学習サロゲートであるNeuralMDを提案する。
我々は、標準的な数値MDシミュレーションよりも2000$times$のスピードアップを達成し、安定性の指標の下では、他のMLアプローチよりも最大80%高い効率で、NeuralMDの有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-01-26T09:35:17Z) - Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - On the Interplay of Subset Selection and Informed Graph Neural Networks [3.091456764812509]
この研究は、QM9データセットにおける分子の原子化エネルギーの予測に焦点を当てている。
トレーニングセット選択過程における分子多様性の最大化は,線形回帰法および非線形回帰法のロバスト性を高めることを示す。
また、モデルに依存しない説明器を用いて、グラフニューラルネットワークによる予測の信頼性を確認する。
論文 参考訳(メタデータ) (2023-06-15T09:09:27Z) - Transfer learning for atomistic simulations using GNNs and kernel mean
embeddings [24.560340485988128]
本稿では, グラフニューラルネットワーク(GNN)を用いて, カーネル平均埋め込みとともに, 化学環境を表現するトランスファー学習アルゴリズムを提案する。
我々は,複雑性を増大させる一連の現実的なデータセットに対して,我々のアプローチを検証し,優れた一般化と伝達可能性性能を示す。
論文 参考訳(メタデータ) (2023-06-02T14:58:16Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Statistically Optimal Force Aggregation for Coarse-Graining Molecular
Dynamics [55.41644538483948]
粗粒(CG)モデルは、原子論的な分子動力学で可能な以上の大きな分子複合体をシミュレートする可能性がある。
CG力場を学習するための広く使われている方法論は、全原子分子動力学からCG表現への力のマッピングと、平均してCG力場とマッチングするものである。
我々は、全原子力のCG表現へのマッピングには柔軟性があり、最もよく使われるマッピング手法は統計的に非効率的であり、全原子シミュレーションにおける制約の存在においても、潜在的に誤りであることを示した。
論文 参考訳(メタデータ) (2023-02-14T14:35:39Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - A hybrid data driven-physics constrained Gaussian process regression
framework with deep kernel for uncertainty quantification [21.972192114861873]
本稿では,データ駆動物理制約付きガウスプロセス回帰フレームワークを提案する。
物理知識をボルツマン・ギブス分布でエンコードし、最大可能性(ML)アプローチでモデルを導出する。
提案モデルでは,高次元問題において良好な結果が得られ,その不確かさを正確に伝播し,ラベル付きデータを極めて限定的に提供した。
論文 参考訳(メタデータ) (2022-05-13T07:53:49Z) - GeoMol: Torsional Geometric Generation of Molecular 3D Conformer
Ensembles [60.12186997181117]
分子グラフからの分子の3Dコンホメーラーアンサンブルの予測は、化学情報学と薬物発見の領域において重要な役割を担っている。
既存の生成モデルは、重要な分子幾何学的要素のモデリングの欠如を含むいくつかの欠点がある。
エンド・ツー・エンド、非自己回帰、SE(3)不変の機械学習手法であるGeoMolを提案し、3Dコンバータを生成する。
論文 参考訳(メタデータ) (2021-06-08T14:17:59Z) - A hybrid MGA-MSGD ANN training approach for approximate solution of
linear elliptic PDEs [0.0]
MGA-MSGD(Modified Genetic-Multilevel Gradient Descent)トレーニングアルゴリズムを導入しました。
ANNによるPDEによって記述された3次元機械的問題の精度と効率を大幅に改善する。
論文 参考訳(メタデータ) (2020-12-18T10:59:07Z) - Particles to Partial Differential Equations Parsimoniously [0.0]
粗粒の有効部分微分方程式は、予測や制御のような計算集約的なタスクにかなりの節約をもたらす可能性がある。
本稿では,ニューラルネットワークとマルチスケール計算を組み合わせる枠組みを,方程式自由数値の形で提案する。
素粒子シミュレーションから大まかな粒度進化方程式を抽出し, 未知のマクロスケール変数を用いた手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T15:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。