論文の概要: Efficient Learning of Mesh-Based Physical Simulation with BSMS-GNN
- arxiv url: http://arxiv.org/abs/2210.02573v4
- Date: Mon, 19 Jun 2023 02:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 05:27:11.976003
- Title: Efficient Learning of Mesh-Based Physical Simulation with BSMS-GNN
- Title(参考訳): BSMS-GNNを用いたメッシュ型物理シミュレーションの効率的学習
- Authors: Yadi Cao, Menglei Chai, Minchen Li, Chenfanfu Jiang
- Abstract要約: Bi-strideは、ブロードスファースト検索のすべてのフロンティアにノードをプールする。
U-Netに類似したレベルごとの1MPスキームと非パラメタライズドプールは計算コストを大幅に削減する。
- 参考スコア(独自算出の注目度): 36.73790892258642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning the physical simulation on large-scale meshes with flat Graph Neural
Networks (GNNs) and stacking Message Passings (MPs) is challenging due to the
scaling complexity w.r.t. the number of nodes and over-smoothing. There has
been growing interest in the community to introduce \textit{multi-scale}
structures to GNNs for physical simulation. However, current state-of-the-art
methods are limited by their reliance on the labor-intensive drawing of coarser
meshes or building coarser levels based on spatial proximity, which can
introduce wrong edges across geometry boundaries. Inspired by the bipartite
graph determination, we propose a novel pooling strategy, \textit{bi-stride} to
tackle the aforementioned limitations. Bi-stride pools nodes on every other
frontier of the breadth-first search (BFS), without the need for the manual
drawing of coarser meshes and avoiding the wrong edges by spatial proximity.
Additionally, it enables a one-MP scheme per level and non-parametrized pooling
and unpooling by interpolations, resembling U-Nets, which significantly reduces
computational costs. Experiments show that the proposed framework,
\textit{BSMS-GNN}, significantly outperforms existing methods in terms of both
accuracy and computational efficiency in representative physical simulations.
- Abstract(参考訳): フラットなグラフニューラルネットワーク(GNN)とスタックングメッセージパッシング(MP)による大規模メッシュ上での物理シミュレーションの学習は,ノード数や過度なスムース化といったスケーリングの複雑さのために難しい。
物理シミュレーションのための GNN に \textit{multi-scale} 構造を導入することに対するコミュニティの関心が高まっている。
しかしながら、現在の最先端の手法は、粗いメッシュの労働集約的な描画に依存するか、空間的近接に基づいて粗いレベルを構築するかによって制限される。
2成分グラフ決定に触発されて,上記の制限に取り組むために,新たなプーリング戦略である \textit{bi-stride} を提案する。
バイストライドは、粗いメッシュの手動描画を必要とせず、空間的近接により間違ったエッジを避けることなく、ブロードスファーストサーチ(BFS)の他のフロンティアにノードをプールする。
さらに、レベル毎の1MPスキームと非パラメトリズドプールと補間によるアンプールを可能にし、計算コストを大幅に削減するU-Netsに似ている。
実験の結果,提案するフレームワークである‘textit{BSMS-GNN} は,物理シミュレーションの精度と計算効率の両面で,既存の手法よりも優れていた。
関連論文リスト
- Mesh-based Super-Resolution of Fluid Flows with Multiscale Graph Neural Networks [0.0]
メッシュベースの流体の3次元超解像を可能にするグラフニューラルネットワーク(GNN)アプローチが本研究で導入された。
このフレームワークでは、GNNは一度に完全なメッシュベースのフィールドでではなく、要素(またはセル)の局所的なメッシュで動くように設計されている。
論文 参考訳(メタデータ) (2024-09-12T05:52:19Z) - LightDiC: A Simple yet Effective Approach for Large-scale Digraph
Representation Learning [42.72417353512392]
磁気ラプラシアンに基づくダイグラフ畳み込みのスケーラブルな変種であるLightDiCを提案する。
LightDiCは、最も代表的な大規模データベースで満足な結果を提供する最初のDiGNNである。
論文 参考訳(メタデータ) (2024-01-22T09:09:10Z) - Multicoated and Folded Graph Neural Networks with Strong Lottery Tickets [3.0894823679470087]
本稿では,アーキテクチャとパラメータの両面から検索空間を拡張するためのマルチステージ・フォールディング法とアンシャレッド・マスク法を提案する。
高空間性、競争性能、高メモリ効率を最大98.7%の削減で達成することにより、エネルギー効率の高いグラフ処理に適していることを示す。
論文 参考訳(メタデータ) (2023-12-06T02:16:44Z) - Scientific Computing Algorithms to Learn Enhanced Scalable Surrogates
for Mesh Physics [6.360914973656273]
MeshGraphNets(MGN)は、メッシュベースの物理モデリングのためのGNNのサブクラスである。
我々は、計算流体力学シミュレーションを生成するために、MGNを数千のノードでメッシュ上で訓練する。
本研究は,実世界のアプリケーションにMGNをスケーリングする実践的な方法を示す。
論文 参考訳(メタデータ) (2023-04-01T15:42:18Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。