論文の概要: Efficient Parallelization of Message Passing Neural Network Potentials for Large-scale Molecular Dynamics
- arxiv url: http://arxiv.org/abs/2505.06711v3
- Date: Sat, 07 Jun 2025 14:29:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.062456
- Title: Efficient Parallelization of Message Passing Neural Network Potentials for Large-scale Molecular Dynamics
- Title(参考訳): 大規模分子動力学におけるメッセージパッシングニューラルネットワークの効率的な並列化
- Authors: Junfan Xia, Bin Jiang,
- Abstract要約: 本稿では,MPNNモデルに対して,冗長計算を行なわずに各MP層内の局所的原子間のみに付加的なデータ通信を最小化する,効率的な並列アルゴリズムを提案する。
このアプローチにより、MPNNモデル上では1億以上の原子の厳密な局所モデルと同様に、大規模な分子動力学シミュレーションが可能になる。
- 参考スコア(独自算出の注目度): 4.1977795073358815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning potentials have achieved great success in accelerating atomistic simulations. Many of them relying on atom-centered local descriptors are natural for parallelization. More recent message passing neural network (MPNN) models have demonstrated their superior accuracy and become increasingly popular. However, efficiently parallelizing MPNN models across multiple nodes remains challenging, limiting their practical applications in large-scale simulations. Here, we propose an efficient parallel algorithm for MPNN models, in which additional data communication is minimized among local atoms only in each MP layer without redundant computation, thus scaling linearly with the layer number. Integrated with our recursively embedded atom neural network model, this algorithm demonstrates excellent strong scaling and weak scaling behaviors in several benchmark systems. This approach enables massive molecular dynamics simulations on MPNN models as fast as on strictly local models for over 100 million atoms, vastly extending the applicability of the MPNN potential to an unprecedented scale. This general parallelization framework can empower various MPNN models to efficiently simulate very large and complex systems.
- Abstract(参考訳): 機械学習のポテンシャルは、原子論シミュレーションの加速に大きな成功を収めた。
それらの多くは原子中心の局所記述子に依存しており、並列化には自然である。
最近では、MPNN(Message Passing Neural Network)モデルの方が精度が優れ、ますます人気が高まっている。
しかし、MPNNモデルを複数のノードに効率的に並列化することは依然として困難であり、大規模シミュレーションにおける実用的応用を制限している。
本稿では,MPNNモデルに対して,冗長計算を伴わずに各MP層内の局所的原子間のみにデータ通信を最小化し,層数と線形にスケールする効率的な並列アルゴリズムを提案する。
このアルゴリズムは再帰的に埋め込まれた原子ニューラルネットモデルと統合され、いくつかのベンチマークシステムにおいて優れたスケーリングと弱いスケーリングの挙動を示す。
このアプローチにより、MPNNモデル上の1億以上の原子の厳密な局所モデルと同じくらい高速に分子動力学シミュレーションが可能となり、MPNNポテンシャルの適用範囲を前例のない規模にまで拡大する。
この一般的な並列化フレームワークは、様々なMPNNモデルを利用して、非常に大きく複雑なシステムを効率的にシミュレートすることができる。
関連論文リスト
- Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - SparseProp: Efficient Event-Based Simulation and Training of Sparse
Recurrent Spiking Neural Networks [4.532517021515834]
Spiking Neural Networks(SNN)は、生物学的にインスパイアされたモデルであり、アクションポテンシャルのストリームで情報を処理できる。
SparsePropはスパースSNNをシミュレートし、訓練するための新しいイベントベースアルゴリズムである。
論文 参考訳(メタデータ) (2023-12-28T18:48:10Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - NeuralMatrix: Compute the Entire Neural Networks with Linear Matrix Operations for Efficient Inference [20.404864470321897]
本稿では,ディープニューラルネットワーク(DNN)モデル全体の計算を線形行列演算に弾性的に変換するニューラルマトリックスを提案する。
CNNとトランスフォーマーベースのモデルによる実験は、広範囲のDNNモデルを正確かつ効率的に実行するためのNeuralMatrixの可能性を実証している。
このレベルの効率性は通常、特定のニューラルネットワーク用に設計されたアクセラレータでのみ達成できる。
論文 参考訳(メタデータ) (2023-05-23T12:03:51Z) - Distributed Compressed Sparse Row Format for Spiking Neural Network
Simulation, Serialization, and Interoperability [0.48733623015338234]
圧縮スパース列(CSR)であるスパース行列を効率的に表現するために広く使われているフォーマットの並列拡張について論じる。
我々は, ニューロンやシナプス状態などの付加的なネットワーク情報を, dCSR がネットワーク状態のパーティショニングに基づく直接分布を提供するため, その隣接性に合わせて整理することを主張した。
実装の可能性を秘めており、ニューラルネットワークコミュニティにおける採用に向けて前進しています。
論文 参考訳(メタデータ) (2023-04-12T03:19:06Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Parallel Simulation of Quantum Networks with Distributed Quantum State
Management [56.24769206561207]
我々は、量子ネットワークの並列シミュレーションの要件を特定し、最初の並列離散事象量子ネットワークシミュレータを開発する。
コントリビューションには、複数のプロセスに分散した共有量子情報を維持する量子状態マネージャの設計と開発が含まれています。
既存のシーケンシャルバージョンと並行してオープンソースツールとして,並列SeQUeNCeシミュレータをリリースする。
論文 参考訳(メタデータ) (2021-11-06T16:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。