論文の概要: MultiScale MeshGraphNets
- arxiv url: http://arxiv.org/abs/2210.00612v1
- Date: Sun, 2 Oct 2022 20:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:28:44.351712
- Title: MultiScale MeshGraphNets
- Title(参考訳): MultiScale MeshGraphNets
- Authors: Meire Fortunato, Tobias Pfaff, Peter Wirnsberger, Alexander Pritzel,
Peter Battaglia
- Abstract要約: 我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
- 参考スコア(独自算出の注目度): 65.26373813797409
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, there has been a growing interest in using machine learning
to overcome the high cost of numerical simulation, with some learned models
achieving impressive speed-ups over classical solvers whilst maintaining
accuracy. However, these methods are usually tested at low-resolution settings,
and it remains to be seen whether they can scale to the costly high-resolution
simulations that we ultimately want to tackle.
In this work, we propose two complementary approaches to improve the
framework from MeshGraphNets, which demonstrated accurate predictions in a
broad range of physical systems. MeshGraphNets relies on a message passing
graph neural network to propagate information, and this structure becomes a
limiting factor for high-resolution simulations, as equally distant points in
space become further apart in graph space. First, we demonstrate that it is
possible to learn accurate surrogate dynamics of a high-resolution system on a
much coarser mesh, both removing the message passing bottleneck and improving
performance; and second, we introduce a hierarchical approach (MultiScale
MeshGraphNets) which passes messages on two different resolutions (fine and
coarse), significantly improving the accuracy of MeshGraphNets while requiring
less computational resources.
- Abstract(参考訳): 近年、機械学習による数値シミュレーションの高コスト化への関心が高まっており、いくつかの学習モデルは精度を維持しながら古典的解法よりも優れたスピードアップを実現している。
しかし、これらの手法は通常、低解像度設定でテストされており、最終的に取り組むべき高解像度シミュレーションにスケールできるかどうかは不明だ。
本研究では,meshgraphnetsからフレームワークを改善するための2つの補完的アプローチを提案する。
MeshGraphNetsは、情報伝達のためにメッセージパッシンググラフニューラルネットワークに依存しており、この構造はグラフ空間において空間の等距離点がさらに離れてなるにつれて、高分解能シミュレーションの制限要因となる。
まず、より粗いメッシュ上での高解像度システムの正確なサロゲートダイナミクスを学習し、メッセージパッシングボトルネックを除去し、性能を向上させること、次に、2つの異なる解像度(微細で粗い)でメッセージを転送する階層的アプローチ(MultiScale MeshGraphNets)を導入し、計算リソースを少なくしながらMeshGraphNetsの精度を大幅に向上させることを実証する。
関連論文リスト
- X-MeshGraphNet: Scalable Multi-Scale Graph Neural Networks for Physics Simulation [0.0]
我々は、MeshGraphNetのスケーラブルでマルチスケールな拡張であるX-MeshGraphNetを紹介する。
X-MeshGraphNetは、大きなグラフとハローリージョンを分割することで、スケーラビリティのボトルネックを克服する。
実験の結果,X-MeshGraphNetは全グラフGNNの予測精度を維持していることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:10:05Z) - A Graph Neural Network Approach for Temporal Mesh Blending and
Correspondence [18.466814193413487]
Red-Blue MPNNは、対応を推定するために拡張グラフを処理する新しいグラフニューラルネットワークである。
動作中の人間のメッシュの時間的シーケンスからなる大規模な合成データセットを作成する。
論文 参考訳(メタデータ) (2023-06-23T11:47:30Z) - MAgNET: A Graph U-Net Architecture for Mesh-Based Simulations [0.5185522256407782]
我々は、任意のグラフ構造化データに対応するために、よく知られた畳み込みニューラルネットワークを拡張するMagNETを提案する。
固体の力学における非線形有限要素シミュレーションのサロゲートモデリングにおけるMAgNETの予測能力を示す。
論文 参考訳(メタデータ) (2022-11-01T19:23:45Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Not Half Bad: Exploring Half-Precision in Graph Convolutional Neural
Networks [8.460826851547294]
現代の機械学習を用いた効率的なグラフ解析は、ますます注目を集めている。
ディープラーニングアプローチは、隣接行列全体にわたって運用されることが多い。
実行時間とメモリ要求の両方を削減するための効率的な対策を特定することが望ましい。
論文 参考訳(メタデータ) (2020-10-23T19:47:42Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。