論文の概要: Knowledge Distillation Framework for Accelerating High-Accuracy Neural Network-Based Molecular Dynamics Simulations
- arxiv url: http://arxiv.org/abs/2506.15337v2
- Date: Fri, 20 Jun 2025 05:31:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 12:57:34.521684
- Title: Knowledge Distillation Framework for Accelerating High-Accuracy Neural Network-Based Molecular Dynamics Simulations
- Title(参考訳): ニューラルネットワークに基づく分子動力学シミュレーションの高速化のための知識蒸留フレームワーク
- Authors: Naoki Matsumura, Yuta Yoshimoto, Yuto Iwasaki, Meguru Yamazaki, Yasufumi Sakai,
- Abstract要約: そこで本研究では,教師としてトレーニング済みのNNPを非微調整・オフザシェルフで活用する新しいKDフレームワークを提案する。
まず,教師が生成したデータセットを用いてNNPを学習し,さらに,より小型で高精度な密度汎関数理論(DFT)を用いて微調整を行う。
有機(ポリエチレングリコール)と無機(L$_10$GeP$_2$S$_)の両方に適用して,本フレームワークの有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network potentials (NNPs) offer a powerful alternative to traditional force fields for molecular dynamics (MD) simulations. Accurate and stable MD simulations, crucial for evaluating material properties, require training data encompassing both low-energy stable structures and high-energy structures. Conventional knowledge distillation (KD) methods fine-tune a pre-trained NNP as a teacher model to generate training data for a student model. However, in material-specific models, this fine-tuning process increases energy barriers, making it difficult to create training data containing high-energy structures. To address this, we propose a novel KD framework that leverages a non-fine-tuned, off-the-shelf pre-trained NNP as a teacher. Its gentler energy landscape facilitates the exploration of a wider range of structures, including the high-energy structures crucial for stable MD simulations. Our framework employs a two-stage training process: first, the student NNP is trained with a dataset generated by the off-the-shelf teacher; then, it is fine-tuned with a smaller, high-accuracy density functional theory (DFT) dataset. We demonstrate the effectiveness of our framework by applying it to both organic (polyethylene glycol) and inorganic (L$_{10}$GeP$_{2}$S$_{12}$) materials, achieving comparable or superior accuracy in reproducing physical properties compared to existing methods. Importantly, our method reduces the number of expensive DFT calculations by 10x compared to existing NNP generation methods, without sacrificing accuracy. Furthermore, the resulting student NNP achieves up to 106x speedup in inference compared to the teacher NNP, enabling significantly faster and more efficient MD simulations.
- Abstract(参考訳): ニューラルネットワークポテンシャル(NNP)は、分子動力学(MD)シミュレーションにおける従来の力場に代わる強力な代替手段を提供する。
材料特性評価に不可欠な高精度かつ安定したMDシミュレーションでは、低エネルギー安定構造と高エネルギー構造の両方を含むトレーニングデータが必要である。
従来の知識蒸留(KD)は、教師モデルとして訓練済みNNPを微調整し、学生モデルのためのトレーニングデータを生成する。
しかし、物質特異的モデルでは、この微調整プロセスはエネルギー障壁を増大させ、高エネルギー構造を含むトレーニングデータを作成するのが困難になる。
そこで本研究では,教師としてトレーニング済みNNPを非微調整・オフザシェルフで活用する新しいKDフレームワークを提案する。
その穏やかなエネルギー環境は、安定したMDシミュレーションに不可欠な高エネルギー構造を含む、より広い範囲の構造の探索を促進する。
まず,教師が生成したデータセットを用いてNNPを学習し,さらに,より小型で高精度な密度汎関数理論(DFT)を用いて微調整を行う。
有機(ポリエチレングリコール)と無機(L$_{10}$GeP$_{2}$S$_{12}$)材料の両方に適用し, 従来の方法と比較して, 物理特性の再現において同等あるいは優れた精度を達成することにより, 本フレームワークの有効性を実証した。
提案手法は,既存のNP生成法と比較して,精度を犠牲にすることなく,高価なDFT計算の数を10倍に削減する。
さらに,学習者NNPは教師NNPと比較して最大106倍の高速化を実現し,MDシミュレーションの高速化と効率化を実現している。
関連論文リスト
- LaMM: Semi-Supervised Pre-Training of Large-Scale Materials Models [0.1999925939110439]
改良された自己教師付き学習を取り入れた半教師付き事前学習手法であるLaMMと、効率的なマルチノード学習のための負荷分散アルゴリズムを提案する。
提案手法は,1つのNNPモデルをトレーニングするために,$sim$300M(3億ドル)の半ラベルサンプルの大規模データセットを効果的に活用し,速度と精度の両面で微調整性能を向上することを示した。
論文 参考訳(メタデータ) (2025-05-28T10:36:49Z) - On the Connection Between Diffusion Models and Molecular Dynamics [0.0]
拡散モデルのノイズ化は、安定な構成に付加されるノイズを取り除くためのトレーニングネットワークによってNNPにおいて有望であることが示されている。
本稿では,従来の MD ソフトウェアパッケージを標準NNP アーキテクチャにインターフェースして実装する方法について述べる。
論文 参考訳(メタデータ) (2025-04-04T05:32:38Z) - Ensemble Knowledge Distillation for Machine Learning Interatomic Potentials [34.82692226532414]
機械学習の原子間ポテンシャル(MLIP)を改善するためのアンサンブル知識蒸留法(EKD)を提案する。
まず、複数の教師モデルはQCエネルギーに訓練され、次にデータセットのすべての構成に対して原子力を生成する。次に、学生MLIPは、教師モデルによって生成されたQCエネルギーと平均的な力の両方に訓練される。
得られた学生MLIPは、Compum6ベンチマークで新しい最先端の精度を達成し、分子動力学シミュレーションの安定性の向上を示す。
論文 参考訳(メタデータ) (2025-03-18T14:32:51Z) - A General Neural Network Potential for Energetic Materials with C, H, N, and O elements [0.9742644628669695]
高エネルギー材料(HEM)は、禁止的な計算費用と開発サイクルの延長によって制約される。
我々は,HEMの構造,機械的,分解特性を効率的に予測する汎用ニューラルネットワーク電位(NNP)を開発した。
論文 参考訳(メタデータ) (2025-03-03T03:24:59Z) - A Multi-Grained Symmetric Differential Equation Model for Learning Protein-Ligand Binding Dynamics [73.35846234413611]
薬物発見において、分子動力学(MD)シミュレーションは、結合親和性を予測し、輸送特性を推定し、ポケットサイトを探索する強力なツールを提供する。
我々は,数値MDを容易にし,タンパク質-リガンド結合ダイナミクスの正確なシミュレーションを提供する,最初の機械学習サロゲートであるNeuralMDを提案する。
従来の数値MDシミュレーションと比較して1K$times$ Speedupを実現することにより,NeuralMDの有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-01-26T09:35:17Z) - Transfer learning for chemically accurate interatomic neural network
potentials [0.0]
密度汎関数計算から得られたデータに基づいてネットワークパラメータを事前学習することにより、より正確なab-initioデータに基づいてトレーニングされたモデルのサンプル効率が向上することを示す。
ANI-1x および ANI-1ccx データセット上で事前訓練および微調整されたGM-NN電位を提供する。
論文 参考訳(メタデータ) (2022-12-07T19:21:01Z) - A Kernel-Based View of Language Model Fine-Tuning [94.75146965041131]
ニューラル・タンジェント・カーネル(NTK)が事前学習したLMの微調整を記述しているかどうかを検討する。
本稿では,ダウンストリームタスクを暗黙の単語予測問題として定式化することで,微調整中にカーネルベースのダイナミクスをしばしば引き起こすことを示す。
論文 参考訳(メタデータ) (2022-10-11T17:34:32Z) - BIGDML: Towards Exact Machine Learning Force Fields for Materials [55.944221055171276]
機械学習力場(MLFF)は正確で、計算的で、データ効率が良く、分子、材料、およびそれらのインターフェースに適用できなければならない。
ここでは、Bravais-Inspired Gradient-Domain Machine Learningアプローチを導入し、わずか10-200原子のトレーニングセットを用いて、信頼性の高い力場を構築する能力を実証する。
論文 参考訳(メタデータ) (2021-06-08T10:14:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。