論文の概要: Considerations in the use of ML interaction potentials for free energy calculations
- arxiv url: http://arxiv.org/abs/2403.13952v3
- Date: Wed, 14 May 2025 14:50:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 15:30:05.289799
- Title: Considerations in the use of ML interaction potentials for free energy calculations
- Title(参考訳): 自由エネルギー計算におけるML相互作用ポテンシャルの利用に関する考察
- Authors: Orlando A. Mendible, Jonathan K. Whitmer, Yamil J. Colón,
- Abstract要約: 機械学習力場(MLFF)は、アブ初期理論のレベルで分子のポテンシャルエネルギー面を正確に記述することを約束する。
MLFFでは、等変グラフニューラルネットワーク(EQNN)が精度と性能に大きな可能性を示している。
トレーニングデータ中の集合変数(CV)分布がEQNNの精度に及ぼす影響について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning force fields (MLFFs) promise to accurately describe the potential energy surface of molecules at the ab initio level of theory with improved computational efficiency. Within MLFFs, equivariant graph neural networks (EQNNs) have shown great promise in accuracy and performance and are the focus of this work. The capability of EQNNs to recover free energy surfaces (FES) remains to be thoroughly investigated. In this work, we investigate the impact of collective variables (CVs) distribution within the training data on the accuracy of EQNNs predicting the FES of butane and alanine dipeptide (ADP). A generalizable workflow is presented in which training configurations are generated with classical molecular dynamics simulations, and energies and forces are obtained with ab initio calculations. We evaluate how bond and angle constraints in the training data influence the accuracy of EQNN force fields in reproducing the FES of the molecules at both classical and ab initio levels of theory. Results indicate that the model's accuracy is unaffected by the distribution of sampled CVs during training, given that the training data includes configurations from characteristic regions of the system's FES. However, when the training data is obtained from classical simulations, the EQNN struggles to extrapolate the free energy for configurations with high free energy. In contrast, models trained with the same configurations on ab initio data show improved extrapolation accuracy. The findings underscore the difficulties in creating a comprehensive training dataset for EQNNs to predict FESs and highlight the importance of prior knowledge of the system's FES.
- Abstract(参考訳): 機械学習力場(MLFF)は、計算効率を向上し、アブ初期理論における分子のポテンシャルエネルギー面を正確に記述することを約束する。
MLFFでは、同変グラフニューラルネットワーク(EQNN)が精度と性能に大きな可能性を示しており、この研究の焦点となっている。
EQNNが自由エネルギー表面(FES)を回復する能力は、まだ十分に研究されていない。
本研究では,トレーニングデータ中の集合変数(CV)分布がブタンおよびアラニンジペプチド(ADP)のFESを予測するEQNNの精度に及ぼす影響について検討した。
古典的な分子動力学シミュレーションによってトレーニング構成が生成され、アブイニシアチブ計算によりエネルギーと力が得られる一般化可能なワークフローが提示される。
実験データにおける結合と角度の制約が、古典的および初期的理論の両レベルで分子のFESを再現する際に、EQNN力場の精度にどのように影響するかを評価する。
トレーニングデータには、システムのFESの特性領域から構成された構成が含まれていることから、トレーニング中のサンプルCVの分布によって、モデルの精度が影響を受けないことが示唆された。
しかし、古典的なシミュレーションからトレーニングデータが得られると、EQNNは自由エネルギーを高い自由エネルギーで表すのに苦労する。
対照的に、ab initioデータ上で同じ構成でトレーニングされたモデルでは、外挿精度が改善された。
この結果は、EQNNがFESを予測し、システムのFESの事前知識の重要性を強調するための総合的なトレーニングデータセットを作成することの難しさを浮き彫りにしている。
関連論文リスト
- Ensemble Knowledge Distillation for Machine Learning Interatomic Potentials [34.82692226532414]
機械学習原子間ポテンシャル(MLIP)は、原子論シミュレーションと分子特性予測を加速するための有望なツールである。
MLIPの品質は、利用可能なトレーニングデータの量と、そのデータを生成するのに使用される量子化学(QC)レベルの理論に依存する。
本研究では,エネルギーのみのデータセットに学習した際のMLIP精度を向上させるために,アンサンブル知識蒸留(EKD)法を提案する。
論文 参考訳(メタデータ) (2025-03-18T14:32:51Z) - Potential Score Matching: Debiasing Molecular Structure Sampling with Potential Energy Guidance [11.562962976129292]
本稿では、ポテンシャルエネルギー勾配を利用して生成モデルを導出する手法として、ポテンシャルスコアマッチング(PSM)を提案する。
PSMは正確なエネルギー関数を必要とせず、限られた偏りのデータで訓練してもサンプル分布を偏りなくすることができる。
PSMにより生成された分子分布は従来の拡散モデルよりもボルツマン分布に近似していることを示す。
論文 参考訳(メタデータ) (2025-03-18T11:27:28Z) - Enhancing Machine Learning Potentials through Transfer Learning across Chemical Elements [0.0]
機械学習ポテンシャル(MLP)は、計算コストの桁違いでアブ初期精度のシミュレーションを可能にする。
ここでは化学的に類似した元素間のポテンシャルエネルギー表面の移動学習を紹介する。
我々は,伝達学習が力予測のスクラッチから従来の訓練を超越し,より安定なシミュレーションと温度伝達性の向上をもたらすことを実証した。
論文 参考訳(メタデータ) (2025-02-19T08:20:54Z) - Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能推定のためのより計算効率のよい指標として、事前学習損失に焦点を当てている。
FLP-Mは、事前トレーニング中に複数のソースからのデータセットを統合する実践的なニーズに対処する、パフォーマンス予測の基本的なアプローチである。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Towards a Theoretical Understanding of Memorization in Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(GenAI)の主流モデルとして採用されている。
モデル収束を前提とした条件付きおよび非条件付きDPMにおける記憶の理論的理解を提供する。
本研究では、生成されたデータに基づいて訓練された時間依存型分類器を代理条件として利用し、無条件DPMからトレーニングデータを抽出する、textbfSurrogate condItional Data extract (SIDE) という新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T13:17:06Z) - Hydrogen under Pressure as a Benchmark for Machine-Learning Interatomic Potentials [0.0]
機械学習原子間ポテンシャル(MLPs)は、原子系のポテンシャルエネルギー表面の高速でデータ駆動の代理モデルである。
圧力下での水素中の液体-液体相転移の性能を自動的に定量するベンチマークを提案する。
論文 参考訳(メタデータ) (2024-09-20T10:44:40Z) - Physics-Informed Weakly Supervised Learning for Interatomic Potentials [17.165117198519248]
我々は、機械学習型原子間ポテンシャルのトレーニングのための物理インフォームド、弱教師付きアプローチを導入する。
我々は、様々なベースラインモデルとベンチマークデータセットに対して、エネルギーと力の誤差を(しばしば2倍以下に)減らすことを示した。
論文 参考訳(メタデータ) (2024-07-23T12:49:04Z) - Extracting Training Data from Unconditional Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(AI)の主流モデルとして採用されている。
本研究の目的は,1) 理論解析のための記憶量,2) 情報ラベルとランダムラベルを用いた条件記憶量,3) 記憶量測定のための2つのより良い評価指標を用いて,DPMにおける記憶量の理論的理解を確立することである。
提案手法は,理論解析に基づいて,SIDE (textbfSurrogate condItional Data extract) と呼ばれる新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T16:20:12Z) - Overcoming systematic softening in universal machine learning interatomic potentials by fine-tuning [3.321322648845526]
機械学習原子間ポテンシャル(MLIP)は原子シミュレーションの新しいパラダイムを導入した。
近年,多種多様な資料データセットで事前学習したユニバーサルMLIP(uMLIP)が出現している。
分布外の複雑な原子環境に対する外挿性能はいまだに不明である。
論文 参考訳(メタデータ) (2024-05-11T22:30:47Z) - Self-Consistency Training for Density-Functional-Theory Hamiltonian Prediction [74.84850523400873]
ハミルトン予測は自己整合性理論を持ち,自己整合性トレーニングを提案する。
これにより、大量のラベルのないデータでモデルをトレーニングできるため、データの不足に対処できる。
一連のクエリに対してDFT計算を補正するため、教師付きトレーニングのためのラベルを生成するのにDFTを実行するより効率的である。
論文 参考訳(メタデータ) (2024-03-14T16:52:57Z) - Active learning of Boltzmann samplers and potential energies with quantum mechanical accuracy [1.7633275579210346]
我々は,強化サンプリングと深層生成モデルを組み合わせるアプローチと,機械学習ポテンシャルの能動的学習を併用したアプローチを開発する。
本手法を用いて, 医療・生物学分野における多種多様なシステム群に属する超小型の銀ナノクラスターの異性化について検討する。
論文 参考訳(メタデータ) (2024-01-29T19:01:31Z) - Uncertainty-biased molecular dynamics for learning uniformly accurate interatomic potentials [25.091146216183144]
アクティブラーニングは、偏りや偏りのない分子動力学を用いて候補プールを生成する。
既存のバイアスやバイアスのないMDシミュレーション手法は、稀な事象や外挿領域を見逃しがちである。
この研究は、MLIPのエネルギー不確実性に偏ったMDが同時に外挿領域と稀な事象を捉えることを示した。
論文 参考訳(メタデータ) (2023-12-03T14:39:14Z) - Pseudo-Spherical Contrastive Divergence [119.28384561517292]
エネルギーベースモデルの最大学習確率を一般化するために,擬球面コントラスト分散(PS-CD)を提案する。
PS-CDは難解な分割関数を避け、学習目的の一般化されたファミリーを提供する。
論文 参考訳(メタデータ) (2021-11-01T09:17:15Z) - Prediction of liquid fuel properties using machine learning models with
Gaussian processes and probabilistic conditional generative learning [56.67751936864119]
本研究の目的は、代替燃料の物理的特性を予測するためのクロージャ方程式として機能する、安価で計算可能な機械学習モデルを構築することである。
これらのモデルは、MDシミュレーションのデータベースや、データ融合-忠実性アプローチによる実験的な測定を用いて訓練することができる。
その結果,MLモデルでは,広範囲の圧力および温度条件の燃料特性を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2021-10-18T14:43:50Z) - Training Deep Energy-Based Models with f-Divergence Minimization [113.97274898282343]
深部エネルギーベースモデル(EBM)は分布パラメトリゼーションにおいて非常に柔軟であるが、計算的に困難である。
所望のf偏差を用いてEMMを訓練するための、f-EBMと呼ばれる一般的な変分フレームワークを提案する。
実験の結果,F-EBMは対照的なばらつきよりも優れており,KL以外のf-divergencesを用いたEBMの訓練の利点も示された。
論文 参考訳(メタデータ) (2020-03-06T23:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。