論文の概要: X-MeshGraphNet: Scalable Multi-Scale Graph Neural Networks for Physics Simulation
- arxiv url: http://arxiv.org/abs/2411.17164v2
- Date: Fri, 20 Dec 2024 03:48:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:19:58.958943
- Title: X-MeshGraphNet: Scalable Multi-Scale Graph Neural Networks for Physics Simulation
- Title(参考訳): X-MeshGraphNet:物理シミュレーションのためのスケーラブルなマルチスケールグラフニューラルネットワーク
- Authors: Mohammad Amin Nabian, Chang Liu, Rishikesh Ranade, Sanjay Choudhry,
- Abstract要約: 我々は、MeshGraphNetのスケーラブルでマルチスケールな拡張であるX-MeshGraphNetを紹介する。
X-MeshGraphNetは、大きなグラフとハローリージョンを組み込むことで、スケーラビリティのボトルネックを克服する。
実験の結果,X-MeshGraphNetは全グラフGNNの予測精度を維持していることがわかった。
- 参考スコア(独自算出の注目度): 3.8363709845608365
- License:
- Abstract: Graph Neural Networks (GNNs) have gained significant traction for simulating complex physical systems, with models like MeshGraphNet demonstrating strong performance on unstructured simulation meshes. However, these models face several limitations, including scalability issues, requirement for meshing at inference, and challenges in handling long-range interactions. In this work, we introduce X-MeshGraphNet, a scalable, multi-scale extension of MeshGraphNet designed to address these challenges. X-MeshGraphNet overcomes the scalability bottleneck by partitioning large graphs and incorporating halo regions that enable seamless message passing across partitions. This, combined with gradient aggregation, ensures that training across partitions is equivalent to processing the entire graph at once. To remove the dependency on simulation meshes, X-MeshGraphNet constructs custom graphs directly from tessellated geometry files (e.g., STLs) by generating point clouds on the surface or volume of the object and connecting k-nearest neighbors. Additionally, our model builds multi-scale graphs by iteratively combining coarse and fine-resolution point clouds, where each level refines the previous, allowing for efficient long-range interactions. Our experiments demonstrate that X-MeshGraphNet maintains the predictive accuracy of full-graph GNNs while significantly improving scalability and flexibility. This approach eliminates the need for time-consuming mesh generation at inference, offering a practical solution for real-time simulation across a wide range of applications. The code for reproducing the results presented in this paper is available through NVIDIA Modulus.
- Abstract(参考訳): Graph Neural Networks(GNN)は、複雑な物理システムをシミュレートする上で大きな注目を集めており、MeshGraphNetのようなモデルでは、非構造化のシミュレーションメッシュ上で強力なパフォーマンスを示している。
しかし、これらのモデルはスケーラビリティの問題、推論時のメッシュ化の要件、長距離インタラクションを扱う際の課題など、いくつかの制限に直面している。
本稿では、これらの課題に対処するために設計された、スケーラブルでマルチスケールなMeshGraphNetの拡張であるX-MeshGraphNetを紹介する。
X-MeshGraphNetは、大きなグラフを分割し、パーティションを横断するシームレスなメッセージパッシングを可能にするhaloリージョンを統合することで、スケーラビリティのボトルネックを克服する。
これは勾配の集約と組み合わせて、パーティション間のトレーニングがグラフ全体を一度に処理するのと同等であることを保証します。
シミュレーションメッシュへの依存を取り除くため、X-MeshGraphNetは、オブジェクトの表面や体積の点雲を生成し、k-アネレスト近傍を接続することによって、テッセル付き幾何ファイル(例えばSTL)から直接カスタムグラフを構築する。
さらに, このモデルでは, 粗い点雲と細かな点雲を反復的に組み合わせたマルチスケールグラフを構築し, それぞれのレベルが前のレベルを洗練し, より効率的な長距離相互作用を実現する。
実験により,X-MeshGraphNetは全グラフGNNの予測精度を維持しつつ,スケーラビリティと柔軟性を著しく向上することを示した。
このアプローチは、推論時に時間を要するメッシュ生成の必要性を排除し、幅広いアプリケーションにわたるリアルタイムシミュレーションのための実用的なソリューションを提供する。
本論文で提示した結果を再現するためのコードはNVIDIA Modulusで公開されている。
関連論文リスト
- DeltaGNN: Graph Neural Network with Information Flow Control [5.563171090433323]
グラフニューラルネットワーク(GNN)は、メッセージパッシングプロセスの近傍集約を通じてグラフ構造化データを処理するように設計されている。
メッセージパッシングにより、GNNは短距離空間的相互作用を理解できるだけでなく、過度なスムーシングや過度なスカッシングに悩まされる。
本稿では,線形計算オーバーヘッドを伴うオーバー・スムーシングとオーバー・スキャッシングに対処するための,emph情報フロー制御機構を提案する。
さまざまなサイズ、トポロジ、密度、ホモフィリック比のグラフを含む10の実世界のデータセットを対象に、我々のモデルをベンチマークし、優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-01-10T14:34:20Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Communication-Free Distributed GNN Training with Vertex Cut [63.22674903170953]
CoFree-GNNは、コミュニケーションのないトレーニングを実装することで、トレーニングプロセスを大幅に高速化する、分散GNNトレーニングフレームワークである。
我々は、CoFree-GNNが既存の最先端のGNNトレーニングアプローチよりも最大10倍高速なGNNトレーニングプロセスを実証した。
論文 参考訳(メタデータ) (2023-08-06T21:04:58Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - MathNet: Haar-Like Wavelet Multiresolution-Analysis for Graph
Representation and Learning [31.42901131602713]
本稿では,マルチレゾリューション・ハール型ウェーブレット(MathNet)を用いたグラフニューラルネットワークのためのフレームワークを提案する。
提案したMathNetは、特にデータセットにおいて、既存のGNNモデルよりも優れている。
論文 参考訳(メタデータ) (2020-07-22T05:00:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。