論文の概要: Scientific Computing Algorithms to Learn Enhanced Scalable Surrogates
for Mesh Physics
- arxiv url: http://arxiv.org/abs/2304.00338v1
- Date: Sat, 1 Apr 2023 15:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 18:33:44.892731
- Title: Scientific Computing Algorithms to Learn Enhanced Scalable Surrogates
for Mesh Physics
- Title(参考訳): メッシュ物理のための拡張スケーラブルサロゲートを学習するための科学計算アルゴリズム
- Authors: Brian R. Bartoldson, Yeping Hu, Amar Saini, Jose Cadena, Yucheng Fu,
Jie Bao, Zhijie Xu, Brenda Ng, Phan Nguyen
- Abstract要約: MeshGraphNets(MGN)は、メッシュベースの物理モデリングのためのGNNのサブクラスである。
我々は、計算流体力学シミュレーションを生成するために、MGNを数千のノードでメッシュ上で訓練する。
本研究は,実世界のアプリケーションにMGNをスケーリングする実践的な方法を示す。
- 参考スコア(独自算出の注目度): 6.360914973656273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven modeling approaches can produce fast surrogates to study
large-scale physics problems. Among them, graph neural networks (GNNs) that
operate on mesh-based data are desirable because they possess inductive biases
that promote physical faithfulness, but hardware limitations have precluded
their application to large computational domains. We show that it is
\textit{possible} to train a class of GNN surrogates on 3D meshes. We scale
MeshGraphNets (MGN), a subclass of GNNs for mesh-based physics modeling, via
our domain decomposition approach to facilitate training that is mathematically
equivalent to training on the whole domain under certain conditions. With this,
we were able to train MGN on meshes with \textit{millions} of nodes to generate
computational fluid dynamics (CFD) simulations. Furthermore, we show how to
enhance MGN via higher-order numerical integration, which can reduce MGN's
error and training time. We validated our methods on an accompanying dataset of
3D $\text{CO}_2$-capture CFD simulations on a 3.1M-node mesh. This work
presents a practical path to scaling MGN for real-world applications.
- Abstract(参考訳): データ駆動モデリングアプローチは、大規模な物理問題を研究するために高速なサロゲートを生成することができる。
その中でも、メッシュベースのデータを操作するグラフニューラルネットワーク(GNN)は、物理的忠実性を促進する帰納的バイアスを持つため望ましいが、ハードウェアの制限により、大規模な計算領域への適用は妨げられている。
3次元メッシュ上でGNNサロゲートのクラスをトレーニングするのはtextit{possible} であることを示す。
我々は、メッシュベースの物理モデリングのためのGNNのサブクラスであるMeshGraphNets(MGN)をドメイン分解アプローチを通じて拡張し、特定の条件下でのドメイン全体のトレーニングに数学的に等価なトレーニングを容易にする。
これにより,計算流体力学(CFD)シミュレーションを生成するために,ノードの‘textit{millions}’を用いてMGNをメッシュ上で訓練することができた。
さらに,高次数値積分によるMGNの高速化を図り,MGNの誤差やトレーニング時間を削減できることを示す。
3.1mノードメッシュ上の3d$\text{co}_2$-capture cfdシミュレーションのデータセットで検証した。
本研究は,実世界のアプリケーションにMGNをスケーリングする実践的な方法を示す。
関連論文リスト
- Scalable and Consistent Graph Neural Networks for Distributed Mesh-based Data-driven Modeling [0.0]
この研究は、メッシュベースのモデリングアプリケーションのための分散グラフニューラルネットワーク(GNN)方法論を開発する。
一貫性とは、1つのランク(1つの大きなグラフ)で訓練され評価されたGNNが、複数のランク(分割グラフ)での評価と算術的に等価であるという事実を指す。
NekRSメッシュのパーティショニングが分散GNNトレーニングと推論ルーチンにどのようにリンクできるかを示し、スケーラブルなメッシュベースのデータ駆動モデリングワークフローを実現する。
論文 参考訳(メタデータ) (2024-10-02T15:22:27Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Physics-informed MeshGraphNets (PI-MGNs): Neural finite element solvers
for non-stationary and nonlinear simulations on arbitrary meshes [13.41003911618347]
PI-MGNは、PINNとMGNを組み合わせて任意のメッシュ上の非定常および非線形偏微分方程式(PDE)を解くハイブリッドアプローチである。
結果は、モデルが大規模で複雑なメッシュにうまくスケールしていることを示しているが、小さなジェネリックメッシュでのみトレーニングされている。
論文 参考訳(メタデータ) (2024-02-16T13:34:51Z) - A foundation for exact binarized morphological neural networks [2.8925699537310137]
ディープニューラルネットワーク(NN)のトレーニングと実行は、多くの計算とエネルギー集約的な特別なハードウェアを必要とすることが多い。
計算量と消費電力を減らす方法の1つは二重NNを使うことであるが、これは符号関数が非滑らかな勾配を持つため訓練が困難である。
本研究では,特定の条件下での性能を損なうことなく,ConvNetを二項化できる数学的形態(MM)に基づくモデルを提案する。
論文 参考訳(メタデータ) (2024-01-08T11:37:44Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - MLGCN: An Ultra Efficient Graph Convolution Neural Model For 3D Point
Cloud Analysis [4.947552172739438]
グラフニューラルネットワーク(GNN)ブロックを用いて,特定の局所レベルの3次元点雲から特徴を抽出する,MLGCN(Multi-level Graph Convolution Neural)モデルを提案する。
提案手法は,浮動小数点演算(FLOP)の最大1000倍の削減と,ストレージ要求の大幅な削減を図りながら,最先端モデルに匹敵する結果をもたらす。
論文 参考訳(メタデータ) (2023-03-31T00:15:22Z) - Efficient Learning of Mesh-Based Physical Simulation with BSMS-GNN [36.73790892258642]
Bi-strideは、ブロードスファースト検索のすべてのフロンティアにノードをプールする。
U-Netに類似したレベルごとの1MPスキームと非パラメタライズドプールは計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2022-10-05T21:45:16Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - ForceNet: A Graph Neural Network for Large-Scale Quantum Calculations [86.41674945012369]
スケーラブルで表現力のあるグラフニューラルネットワークモデルであるForceNetを開発し、原子力を近似します。
提案したForceNetは、最先端の物理ベースのGNNよりも正確に原子力を予測することができる。
論文 参考訳(メタデータ) (2021-03-02T03:09:06Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。