論文の概要: Bi-Stride Multi-Scale Graph Neural Network for Mesh-Based Physical
Simulation
- arxiv url: http://arxiv.org/abs/2210.02573v1
- Date: Wed, 5 Oct 2022 21:45:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:13:08.715296
- Title: Bi-Stride Multi-Scale Graph Neural Network for Mesh-Based Physical
Simulation
- Title(参考訳): メッシュ型物理シミュレーションのためのbi-strideマルチスケールグラフニューラルネットワーク
- Authors: Yadi Cao, Menglei Chai, Minchen Li, Chenfanfu Jiang
- Abstract要約: マルチレベルGNN構築のための単純なプーリング戦略として,BSMS-GNN(Bi-Stride Multi-Scale Graph Neural Network)を導入する。
本フレームワークは,物理シミュレーションにおける最先端手法の計算効率を大幅に向上させる。
- 参考スコア(独自算出の注目度): 36.73790892258642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning physical systems on unstructured meshes by flat Graph neural
networks (GNNs) faces the challenge of modeling the long-range interactions due
to the scaling complexity w.r.t. the number of nodes, limiting the
generalization under mesh refinement. On regular grids, the convolutional
neural networks (CNNs) with a U-net structure can resolve this challenge by
efficient stride, pooling, and upsampling operations. Nonetheless, these tools
are much less developed for graph neural networks (GNNs), especially when GNNs
are employed for learning large-scale mesh-based physics. The challenges arise
from the highly irregular meshes and the lack of effective ways to construct
the multi-level structure without losing connectivity. Inspired by the
bipartite graph determination algorithm, we introduce Bi-Stride Multi-Scale
Graph Neural Network (BSMS-GNN) by proposing \textit{bi-stride} as a simple
pooling strategy for building the multi-level GNN. \textit{Bi-stride} pools
nodes by striding every other BFS frontier; it 1) works robustly on any
challenging mesh in the wild, 2) avoids using a mesh generator at coarser
levels, 3) avoids the spatial proximity for building coarser levels, and 4)
uses non-parametrized aggregating/returning instead of MLPs during pooling and
unpooling. Experiments show that our framework significantly outperforms the
state-of-the-art method's computational efficiency in representative
physics-based simulation cases.
- Abstract(参考訳): フラットグラフニューラルネットワーク(GNN)による非構造化メッシュ上の物理システム学習は、スケーリングの複雑さによって長距離インタラクションをモデル化するという課題に直面している。
通常のグリッドでは、u-net構造を持つ畳み込みニューラルネットワーク(cnns)は、効率的なステップ、プール、アップサンプリング操作によってこの課題を解決できる。
それでもこれらのツールは、グラフニューラルネットワーク(GNN)、特に大規模メッシュベースの物理学習にGNNを使用する場合には、はるかに少ない。
この課題は、非常に不規則なメッシュと、接続性を失うことなくマルチレベルの構造を構築する効果的な方法の欠如から生じる。
二成分グラフ決定アルゴリズムに触発されて,多次元gnn構築のための単純なプーリング戦略として,二成分多スケールグラフニューラルネットワーク(bsms-gnn)を提案する。
\textit{Bi-stride}は、他のすべてのBFSフロンティアをストレートすることでノードをプールする。
1)野生のどんなチャレンジメッシュでも頑健に動作します。
2)粗いレベルでのメッシュジェネレータの使用を避ける。
3)粗い層を作るための空間的近接を避けること、及び
4) プールやアンプール時のmlpの代わりに非パラメータ化集約/回帰を使用する。
実験により, 提案手法は, 代表的な物理シミュレーションケースにおいて, 最先端の計算効率を大きく上回ることを示した。
関連論文リスト
- Mesh-based Super-Resolution of Fluid Flows with Multiscale Graph Neural Networks [0.0]
メッシュベースの流体の3次元超解像を可能にするグラフニューラルネットワーク(GNN)アプローチが本研究で導入された。
このフレームワークでは、GNNは一度に完全なメッシュベースのフィールドでではなく、要素(またはセル)の局所的なメッシュで動くように設計されている。
論文 参考訳(メタデータ) (2024-09-12T05:52:19Z) - LightDiC: A Simple yet Effective Approach for Large-scale Digraph
Representation Learning [42.72417353512392]
磁気ラプラシアンに基づくダイグラフ畳み込みのスケーラブルな変種であるLightDiCを提案する。
LightDiCは、最も代表的な大規模データベースで満足な結果を提供する最初のDiGNNである。
論文 参考訳(メタデータ) (2024-01-22T09:09:10Z) - Multicoated and Folded Graph Neural Networks with Strong Lottery Tickets [3.0894823679470087]
本稿では,アーキテクチャとパラメータの両面から検索空間を拡張するためのマルチステージ・フォールディング法とアンシャレッド・マスク法を提案する。
高空間性、競争性能、高メモリ効率を最大98.7%の削減で達成することにより、エネルギー効率の高いグラフ処理に適していることを示す。
論文 参考訳(メタデータ) (2023-12-06T02:16:44Z) - Scientific Computing Algorithms to Learn Enhanced Scalable Surrogates
for Mesh Physics [6.360914973656273]
MeshGraphNets(MGN)は、メッシュベースの物理モデリングのためのGNNのサブクラスである。
我々は、計算流体力学シミュレーションを生成するために、MGNを数千のノードでメッシュ上で訓練する。
本研究は,実世界のアプリケーションにMGNをスケーリングする実践的な方法を示す。
論文 参考訳(メタデータ) (2023-04-01T15:42:18Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。