論文の概要: Smooth Dynamic Cutoffs for Machine Learning Interatomic Potentials
- arxiv url: http://arxiv.org/abs/2601.21147v1
- Date: Thu, 29 Jan 2026 00:59:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.496361
- Title: Smooth Dynamic Cutoffs for Machine Learning Interatomic Potentials
- Title(参考訳): 機械学習の原子間ポテンシャルに対する滑らかな動的カットオフ
- Authors: Kevin Han, Haolin Cong, Bowen Deng, Amir Barati Farimani,
- Abstract要約: 機械学習原子間ポテンシャル(MLIP)は分子動力学シミュレーションに非常に有用であることが証明されている。
MLIPは、推論時間とメモリ消費という、2つの主要なボトルネックに直面している。
安定かつ長時間の分子動力学シミュレーションに繋がる動的カットオフを導入する。
- 参考スコア(独自算出の注目度): 13.168063087347234
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine learning interatomic potentials (MLIPs) have proven to be wildly useful for molecular dynamics simulations, powering countless drug and materials discovery applications. However, MLIPs face two primary bottlenecks preventing them from reaching realistic simulation scales: inference time and memory consumption. In this work, we address both issues by challenging the long-held belief that the cutoff radius for the MLIP must be held to a fixed, constant value. For the first time, we introduce a dynamic cutoff formulation that still leads to stable, long timescale molecular dynamics simulation. In introducing the dynamic cutoff, we are able to induce sparsity onto the underlying atom graph by targeting a specific number of neighbors per atom, significantly reducing both memory consumption and inference time. We show the effectiveness of a dynamic cutoff by implementing it onto 4 state of the art MLIPs: MACE, Nequip, Orbv3, and TensorNet, leading to 2.26x less memory consumption and 2.04x faster inference time, depending on the model and atomic system. We also perform an extensive error analysis and find that the dynamic cutoff models exhibit minimal accuracy dropoff compared to their fixed cutoff counterparts on both materials and molecular datasets. All model implementations and training code will be fully open sourced.
- Abstract(参考訳): 機械学習の原子間ポテンシャル(MLIP)は分子動力学シミュレーションや無数の薬物、材料発見の応用に非常に有用であることが証明されている。
しかし、MLIPは推論時間とメモリ消費という2つの主要なボトルネックに直面している。
本研究では,MLIPの遮断半径を一定値に保たなければならないという長年の信念に異議を唱え,両問題に対処する。
まず, 分子動力学の安定な分子動力学シミュレーションを実現するために, 動的カットオフの定式化を導入する。
動的カットオフを導入することで、特定の原子個当たりの隣人数を目標にすることで、基礎となる原子グラフにスパーシリティを誘導することができ、メモリ消費と推論時間の両方を著しく削減できる。
MACE、Nequip、Orbv3、TensorNetの4つの最先端MLIPに実装することで、動的カットオフの有効性を示す。
また, 広範な誤差解析を行い, 動的カットオフモデルでは, 材料および分子データセット上の固定されたカットオフモデルと比較して, 最小の精度のドロップオフを示すことを示した。
すべてのモデル実装とトレーニングコードは、完全にオープンソースになる。
関連論文リスト
- Physics-Informed Weakly Supervised Learning for Interatomic Potentials [17.165117198519248]
機械学習型原子間ポテンシャル(MLIP)のトレーニングのための物理インフォームド・弱教師付きアプローチを導入する。
我々は、様々なベースラインモデルとベンチマークデータセットに対して、エネルギーと力の誤差を(しばしば2倍以下に)減らすことを示した。
我々のアプローチは、スパースで高精度なアブ・イニシアチブデータに基づく基礎モデルの微調整を改善する。
論文 参考訳(メタデータ) (2024-07-23T12:49:04Z) - A Multi-Grained Symmetric Differential Equation Model for Learning Protein-Ligand Binding Dynamics [73.35846234413611]
薬物発見において、分子動力学(MD)シミュレーションは、結合親和性を予測し、輸送特性を推定し、ポケットサイトを探索する強力なツールを提供する。
我々は,数値MDを容易にし,タンパク質-リガンド結合ダイナミクスの正確なシミュレーションを提供する,最初の機械学習サロゲートであるNeuralMDを提案する。
従来の数値MDシミュレーションと比較して1K$times$ Speedupを実現することにより,NeuralMDの有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-01-26T09:35:17Z) - Temporal Subsampling Diminishes Small Spatial Scales in Recurrent Neural
Network Emulators of Geophysical Turbulence [0.0]
しばしば見過ごされる処理ステップがエミュレータの予測品質にどのように影響するかを検討する。
1)空間ベクトル自己回帰(NVAR)の形式、(2)エコー状態ネットワーク(ESN)の形式。
いずれの場合も、トレーニングデータのサブサンプリングは、数値拡散に類似した小さなスケールでのバイアスの増加につながる。
論文 参考訳(メタデータ) (2023-04-28T21:34:53Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Graph Neural Networks Accelerated Molecular Dynamics [0.0]
我々は,高速かつ正確な力予測を実現するGNN加速分子ダイナミクス(GAMD)モデルを開発した。
その結果,GAMDはレナード・ジョーンズ(LJ)粒子と水(LJ+静電気)という2つの典型的な分子系の力学を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2021-12-06T22:11:00Z) - A Note on Learning Rare Events in Molecular Dynamics using LSTM and
Transformer [4.80427355202687]
近年,低次元反応座標のシミュレーションデータを用いてLSTMによるスローダイナミクスの学習に成功した。
本稿では, 言語モデル学習の性能, すなわち反応座標の次元性, 時間分解能, 状態分割の3つの重要な要因について述べる。
論文 参考訳(メタデータ) (2021-07-14T09:26:36Z) - ForceNet: A Graph Neural Network for Large-Scale Quantum Calculations [86.41674945012369]
スケーラブルで表現力のあるグラフニューラルネットワークモデルであるForceNetを開発し、原子力を近似します。
提案したForceNetは、最先端の物理ベースのGNNよりも正確に原子力を予測することができる。
論文 参考訳(メタデータ) (2021-03-02T03:09:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。