論文の概要: X-MeshGraphNet: Scalable Multi-Scale Graph Neural Networks for Physics Simulation
- arxiv url: http://arxiv.org/abs/2411.17164v1
- Date: Tue, 26 Nov 2024 07:10:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:30:47.661012
- Title: X-MeshGraphNet: Scalable Multi-Scale Graph Neural Networks for Physics Simulation
- Title(参考訳): X-MeshGraphNet:物理シミュレーションのためのスケーラブルなマルチスケールグラフニューラルネットワーク
- Authors: Mohammad Amin Nabian,
- Abstract要約: 我々は、MeshGraphNetのスケーラブルでマルチスケールな拡張であるX-MeshGraphNetを紹介する。
X-MeshGraphNetは、大きなグラフとハローリージョンを分割することで、スケーラビリティのボトルネックを克服する。
実験の結果,X-MeshGraphNetは全グラフGNNの予測精度を維持していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Graph Neural Networks (GNNs) have gained significant traction for simulating complex physical systems, with models like MeshGraphNet demonstrating strong performance on unstructured simulation meshes. However, these models face several limitations, including scalability issues, requirement for meshing at inference, and challenges in handling long-range interactions. In this work, we introduce X-MeshGraphNet, a scalable, multi-scale extension of MeshGraphNet designed to address these challenges. X-MeshGraphNet overcomes the scalability bottleneck by partitioning large graphs and incorporating halo regions that enable seamless message passing across partitions. This, combined with gradient aggregation, ensures that training across partitions is equivalent to processing the entire graph at once. To remove the dependency on simulation meshes, X-MeshGraphNet constructs custom graphs directly from CAD files by generating uniform point clouds on the surface or volume of the object and connecting k-nearest neighbors. Additionally, our model builds multi-scale graphs by iteratively combining coarse and fine-resolution point clouds, where each level refines the previous, allowing for efficient long-range interactions. Our experiments demonstrate that X-MeshGraphNet maintains the predictive accuracy of full-graph GNNs while significantly improving scalability and flexibility. This approach eliminates the need for time-consuming mesh generation at inference, offering a practical solution for real-time simulation across a wide range of applications. The code for reproducing the results presented in this paper is available through NVIDIA Modulus: github.com/NVIDIA/modulus/tree/main/examples/cfd/xaeronet.
- Abstract(参考訳): Graph Neural Networks(GNN)は、複雑な物理システムをシミュレートする上で大きな注目を集めており、MeshGraphNetのようなモデルでは、非構造化のシミュレーションメッシュ上で強力なパフォーマンスを示している。
しかし、これらのモデルはスケーラビリティの問題、推論時のメッシュ化の要件、長距離インタラクションを扱う際の課題など、いくつかの制限に直面している。
本稿では、これらの課題に対処するために設計された、スケーラブルでマルチスケールなMeshGraphNetの拡張であるX-MeshGraphNetを紹介する。
X-MeshGraphNetは、大きなグラフを分割し、パーティションを横断するシームレスなメッセージパッシングを可能にするhaloリージョンを統合することで、スケーラビリティのボトルネックを克服する。
これは勾配の集約と組み合わせて、パーティション間のトレーニングがグラフ全体を一度に処理するのと同等であることを保証します。
シミュレーションメッシュへの依存を取り除くため、X-MeshGraphNetはCADファイルから直接カスタムグラフを構築し、オブジェクトの表面やボリュームの均一な点雲を生成し、k-nearestの隣人を接続する。
さらに, このモデルでは, 粗い点雲と細かな点雲を反復的に組み合わせたマルチスケールグラフを構築し, それぞれのレベルが前のレベルを洗練し, より効率的な長距離相互作用を実現する。
実験により,X-MeshGraphNetは全グラフGNNの予測精度を維持しつつ,スケーラビリティと柔軟性を著しく向上することを示した。
このアプローチは、推論時に時間を要するメッシュ生成の必要性を排除し、幅広いアプリケーションにわたるリアルタイムシミュレーションのための実用的なソリューションを提供する。
本稿では NVIDIA Modulus: github.com/NVIDIA/modulus/tree/main/examples/cfd/xaeronet を用いて結果の再現を行う。
関連論文リスト
- Input Snapshots Fusion for Scalable Discrete Dynamic Graph Nerual Networks [27.616083395612595]
入力 bf Snapshots bf Fusion ベースの動的 bf Graph Neural Network (SFDyG) を導入する。
入力ウィンドウ内でスナップショットのパーティショニングを取り除くことで、マルチグラフ(2つのノード間の1つ以上のエッジ)を得る。
スケーラブルな3段階のミニバッチトレーニング手法を提案し、フルバッチトレーニング手法と等価性を実証する。
論文 参考訳(メタデータ) (2024-05-11T10:05:55Z) - MGNet: Learning Correspondences via Multiple Graphs [78.0117352211091]
学習対応は、不均一な対応分布と低い不整合率で設定された初期対応から正しい対応を見つけることを目的としている。
最近の進歩は、通常、グラフニューラルネットワーク(GNN)を使用して単一のタイプのグラフを構築したり、グローバルなグラフに局所グラフをスタックしてタスクを完了させる。
本稿では,複数の補完グラフを効果的に組み合わせるためのMGNetを提案する。
論文 参考訳(メタデータ) (2024-01-10T07:58:44Z) - Communication-Free Distributed GNN Training with Vertex Cut [63.22674903170953]
CoFree-GNNは、コミュニケーションのないトレーニングを実装することで、トレーニングプロセスを大幅に高速化する、分散GNNトレーニングフレームワークである。
我々は、CoFree-GNNが既存の最先端のGNNトレーニングアプローチよりも最大10倍高速なGNNトレーニングプロセスを実証した。
論文 参考訳(メタデータ) (2023-08-06T21:04:58Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - FeatGraph: A Flexible and Efficient Backend for Graph Neural Network
Systems [23.258185277825888]
FeatGraphは多様なGNNモデルを表現するためのフレキシブルなプログラミングインターフェースを提供する。
FeatGraphは、エンドツーエンドのGNNトレーニングと推論をCPUで最大32倍、GPUで最大7倍高速化する。
論文 参考訳(メタデータ) (2020-08-26T03:17:05Z) - MathNet: Haar-Like Wavelet Multiresolution-Analysis for Graph
Representation and Learning [31.42901131602713]
本稿では,マルチレゾリューション・ハール型ウェーブレット(MathNet)を用いたグラフニューラルネットワークのためのフレームワークを提案する。
提案したMathNetは、特にデータセットにおいて、既存のGNNモデルよりも優れている。
論文 参考訳(メタデータ) (2020-07-22T05:00:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。