論文の概要: DistMLIP: A Distributed Inference Platform for Machine Learning Interatomic Potentials
- arxiv url: http://arxiv.org/abs/2506.02023v1
- Date: Wed, 28 May 2025 23:23:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.346911
- Title: DistMLIP: A Distributed Inference Platform for Machine Learning Interatomic Potentials
- Title(参考訳): DistMLIP: マシンラーニングによる原子間ポテンシャルの分散推論プラットフォーム
- Authors: Kevin Han, Bowen Deng, Amir Barati Farimani, Gerbrand Ceder,
- Abstract要約: 機械学習原子間ポテンシャル(MLIP)は、量子力学計算をスケールアップするソリューションを提供する。
我々は、ゼロ冗長グラフレベルの並列化に基づく、MLIPのための効率的な分散推論プラットフォームであるDistMLIPを提案する。
我々は、広く使われている4つの最先端MLIP(CHGNet、MACE、Net、eSEN)上でDistMLIPを実証する。
- 参考スコア(独自算出の注目度): 6.622327158385407
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large-scale atomistic simulations are essential to bridge computational materials and chemistry to realistic materials and drug discovery applications. In the past few years, rapid developments of machine learning interatomic potentials (MLIPs) have offered a solution to scale up quantum mechanical calculations. Parallelizing these interatomic potentials across multiple devices poses a challenging, but promising approach to further extending simulation scales to real-world applications. In this work, we present DistMLIP, an efficient distributed inference platform for MLIPs based on zero-redundancy, graph-level parallelization. In contrast to conventional space-partitioning parallelization, DistMLIP enables efficient MLIP parallelization through graph partitioning, allowing multi-device inference on flexible MLIP model architectures like multi-layer graph neural networks. DistMLIP presents an easy-to-use, flexible, plug-in interface that enables distributed inference of pre-existing MLIPs. We demonstrate DistMLIP on four widely used and state-of-the-art MLIPs: CHGNet, MACE, TensorNet, and eSEN. We show that existing foundational potentials can perform near-million-atom calculations at the scale of a few seconds on 8 GPUs with DistMLIP.
- Abstract(参考訳): 大規模原子論シミュレーションは、計算材料と化学を現実的な材料と薬物発見の応用に橋渡しするために不可欠である。
過去数年間、機械学習の原子間ポテンシャル(MLIP)の急速な発展は、量子力学計算をスケールアップするソリューションを提供してきた。
これらの原子間ポテンシャルを複数のデバイスに並列化することは、シミュレーションスケールをさらに現実世界のアプリケーションに拡張する上で、難しいが有望なアプローチとなる。
本研究では、ゼロ冗長、グラフレベルの並列化に基づく、MLIPのための効率的な分散推論プラットフォームであるDistMLIPを提案する。
従来の空間分割並列化とは対照的に、DistMLIPはグラフ分割による効率的なMLIP並列化を可能にし、多層グラフニューラルネットワークのような柔軟なMLIPモデルアーキテクチャに対するマルチデバイス推論を可能にする。
DistMLIPは、既存のMLIPの分散推論を可能にする、使いやすくフレキシブルなプラグインインターフェースを提供する。
我々は、広く使われている4つの最先端MLIP(CHGNet, MACE, TensorNet, eSEN)上で、DistMLIPを実証する。
既存の基本ポテンシャルは、DistMLIPで8個のGPU上で数秒のスケールで、数百万近い原子計算を実行できることを示す。
関連論文リスト
- Global Universal Scaling and Ultra-Small Parameterization in Machine Learning Interatomic Potentials with Super-Linearity [8.605514384729469]
我々は超線形MLIPを開発し,SUS2-MLIPと呼ばれる超線形パラメータ化と拡張された表現能力を両立させた。
SUS2-MLIPは、最先端のMLIPモデルよりも優れた計算効率を持つ。
この研究は、物理的制約を人工知能支援材料シミュレーションに取り入れることに光を当てている。
論文 参考訳(メタデータ) (2025-02-11T06:34:31Z) - Energy & Force Regression on DFT Trajectories is Not Enough for Universal Machine Learning Interatomic Potentials [8.254607304215451]
MLIP(Universal Machine Learning Interactomic Potentials)は、材料発見のための高速化されたシミュレーションを可能にする。
MLIPは様々な材料に対して大規模分子動力学(MD)シミュレーションを確実かつ正確に行うことができない。
論文 参考訳(メタデータ) (2025-02-05T23:04:21Z) - MAPS: Advancing Multi-Modal Reasoning in Expert-Level Physical Science [62.96434290874878]
現在のMLLM(Multi-Modal Large Language Models)は、一般的な視覚的推論タスクにおいて強力な機能を示している。
我々は,MLLMに基づく物理知覚とシミュレーションによるマルチモーダル科学推論(MAPS)という新しいフレームワークを開発した。
MAPSは、専門家レベルのマルチモーダル推論タスクを物理的知覚モデル(PPM)を介して物理図理解に分解し、シミュレータを介して物理的知識で推論する。
論文 参考訳(メタデータ) (2025-01-18T13:54:00Z) - MLatom 3: Platform for machine learning-enhanced computational chemistry
simulations and workflows [12.337972297411003]
機械学習(ML)は、計算化学における一般的なツールになりつつある。
MLatom 3は、MLのパワーを活用して典型的な計算化学シミュレーションを強化するプログラムパッケージである。
ユーザーは、事前訓練されたMLモデルと量子力学的近似を含む幅広いメソッドのライブラリから選択できる。
論文 参考訳(メタデータ) (2023-10-31T03:41:39Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - h-analysis and data-parallel physics-informed neural networks [0.7614628596146599]
物理インフォームドニューラルネットワーク(PINN)に着目した機械学習スキームのデータ並列高速化について検討する。
我々はHorovodトレーニングフレームワークを通じて、$h$-analysisとデータ並列アクセラレーションに基づく新しいプロトコルを詳述する。
アクセラレーションは実装が簡単で、トレーニングを損なわず、非常に効率的で制御可能であることを示す。
論文 参考訳(メタデータ) (2023-02-17T12:15:18Z) - Partitioning Distributed Compute Jobs with Reinforcement Learning and
Graph Neural Networks [58.720142291102135]
大規模な機械学習モデルは、幅広い分野に進歩をもたらしている。
これらのモデルの多くは、単一のマシンでトレーニングするには大きすぎるため、複数のデバイスに分散する必要がある。
スループットやブロッキングレートといったユーザクリティカルな指標に対して,並列化の最大化が準最適であることを示す。
論文 参考訳(メタデータ) (2023-01-31T17:41:07Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。