論文の概要: Distributed Equivariant Graph Neural Networks for Large-Scale Electronic Structure Prediction
- arxiv url: http://arxiv.org/abs/2507.03840v1
- Date: Fri, 04 Jul 2025 23:53:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.897556
- Title: Distributed Equivariant Graph Neural Networks for Large-Scale Electronic Structure Prediction
- Title(参考訳): 大規模電子構造予測のための分散等変グラフニューラルネットワーク
- Authors: Manasa Kaniselvan, Alexander Maeder, Chen Hao Xia, Alexandros Nikolaos Ziogas, Mathieu Luisier,
- Abstract要約: 密度汎関数理論(DFT)データに基づいて訓練された等価グラフニューラルネットワーク(eGNN)は、前例のない規模で電子構造予測を行う可能性がある。
しかし、このタスクに必要なグラフ表現は密結合である傾向がある。
本稿では,直接GPU通信を利用する分散eGNNの実装と,入力グラフの分割戦略を提案する。
- 参考スコア(独自算出の注目度): 76.62155593340763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equivariant Graph Neural Networks (eGNNs) trained on density-functional theory (DFT) data can potentially perform electronic structure prediction at unprecedented scales, enabling investigation of the electronic properties of materials with extended defects, interfaces, or exhibiting disordered phases. However, as interactions between atomic orbitals typically extend over 10+ angstroms, the graph representations required for this task tend to be densely connected, and the memory requirements to perform training and inference on these large structures can exceed the limits of modern GPUs. Here we present a distributed eGNN implementation which leverages direct GPU communication and introduce a partitioning strategy of the input graph to reduce the number of embedding exchanges between GPUs. Our implementation shows strong scaling up to 128 GPUs, and weak scaling up to 512 GPUs with 87% parallel efficiency for structures with 3,000 to 190,000 atoms on the Alps supercomputer.
- Abstract(参考訳): 密度汎関数理論(DFT)データに基づいて訓練された同変グラフニューラルネットワーク(eGNN)は、前例のないスケールで電子構造予測を行うことが可能であり、欠陥、インターフェース、あるいは混乱した相を示す材料の電子的性質の調査を可能にする。
しかしながら、原子軌道間の相互作用は典型的には10以上のアングストロームを超えて拡張されるため、このタスクに必要なグラフ表現は密結合になりがちであり、これらの大きな構造に対するトレーニングと推論を行うためのメモリ要求は、現代のGPUの限界を超える可能性がある。
本稿では,直接GPU通信を利用する分散eGNNの実装と,GPU間の埋め込み交換回数を削減するための入力グラフの分割戦略を提案する。
実装では,Alpsスーパーコンピュータ上で3,000から190,000個の原子を持つ構造に対して,512個のGPUを87%の並列効率でスケールアップする。
関連論文リスト
- Plexus: Taming Billion-edge Graphs with 3D Parallel GNN Training [1.6954729278440728]
グラフニューラルネットワーク(GNN)は、実世界のグラフの接続性と構造を利用して、ノード間の複雑な特性と関係を学習する。
多くの実世界のグラフはGPUのメモリ容量を超えるサイズであり、その上にGNNを使用するには、スケールするためにミニバッチサンプリングのような技術が必要である。
本稿では、これらの問題に対処し、数十億のエッジグラフにスケールするフルグラフトレーニングのための3次元並列アプローチを提案する。
論文 参考訳(メタデータ) (2025-05-07T02:49:52Z) - Scalable Training of Trustworthy and Energy-Efficient Predictive Graph Foundation Models for Atomistic Materials Modeling: A Case Study with HydraGNN [5.386946356430465]
我々はHydraGNNを用いて、スケーラブルで信頼性があり、エネルギー効率の高い予測グラフ基盤モデル(GFM)を開発し、訓練する。
HydraGNNは、トレーニングスケールとデータの多様性の両方において、グラフニューラルネットワーク(GNN)計算の境界を拡張する。
GFMはマルチタスク学習(MTL)を用いて、原子構造体のグラフレベルとノードレベルの特性を同時に学習する。
論文 参考訳(メタデータ) (2024-06-12T21:21:42Z) - Architectural Implications of Embedding Dimension during GCN on CPU and
GPU [6.650945912906685]
グラフ畳み込みネットワーク(GCNs)は、グラフ学習問題に広く用いられているGNNの一種である。
GCNは、固有のスパーシリティ、低いデータ再利用、大規模なメモリ容量要求のため、アーキテクチャの観点からは難しいアルゴリズムである。
論文 参考訳(メタデータ) (2022-12-01T19:23:12Z) - Nimble GNN Embedding with Tensor-Train Decomposition [10.726368002799765]
本稿では、テンソルトレイン(TT)分解によりグラフニューラルネットワーク(GNN)の埋め込みテーブルをよりコンパクトに表現する新しい手法について述べる。
場合によっては、入力に明示的なノード機能がないモデルでも、ノード機能を使用するモデルの精度にマッチすることもある。
論文 参考訳(メタデータ) (2022-06-21T17:57:35Z) - All-optical graph representation learning using integrated diffractive
photonic computing units [51.15389025760809]
フォトニックニューラルネットワークは、電子の代わりに光子を用いて脳にインスパイアされた計算を行う。
我々は、DGNN(diffractive graph neural network)と呼ばれる全光グラフ表現学習アーキテクチャを提案する。
ベンチマークデータベースを用いたノードおよびグラフレベルの分類タスクにおけるDGNN抽出機能の利用を実演し、優れた性能を実現する。
論文 参考訳(メタデータ) (2022-04-23T02:29:48Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - MG-GCN: Scalable Multi-GPU GCN Training Framework [1.7188280334580197]
グラフ畳み込みネットワーク(GCN)モデルの完全なバッチトレーニングは、大きなグラフのための単一のGPUでは実現できない。
MG-GCNは、メモリバッファの効率的な再使用を含む、複数のハイパフォーマンスコンピューティング最適化を採用している。
MG-GCNは、DGX-1(V100)とDGX-A100の両方のRedditグラフ上で、DGLに関する超線形スピードアップを達成する。
論文 参考訳(メタデータ) (2021-10-17T00:41:43Z) - DistGNN: Scalable Distributed Training for Large-Scale Graph Neural
Networks [58.48833325238537]
大規模グラフの構造を学ぶためにGNN(Graph Neural Networks)のフルバッチトレーニングは、実現可能な数百の計算ノードにスケールする必要がある重要な問題です。
本稿では,CPUクラスタ上でのフルバッチトレーニングのためのDGL(Deep Graph Library)を最適化したGNNについて述べる。
4つの一般的なGNNベンチマークデータセットの結果は、1つのCPUソケットを使用して最大3.7倍のスピードアップ、128のCPUソケットを使用して最大97倍のスピードアップを示す。
論文 参考訳(メタデータ) (2021-04-14T08:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。