論文の概要: MAgNET: A Graph U-Net Architecture for Mesh-Based Simulations
- arxiv url: http://arxiv.org/abs/2211.00713v2
- Date: Thu, 30 Mar 2023 13:56:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 17:51:19.662580
- Title: MAgNET: A Graph U-Net Architecture for Mesh-Based Simulations
- Title(参考訳): MAgNET:メッシュベースのシミュレーションのためのグラフU-Netアーキテクチャ
- Authors: Saurabh Deshpande, St\'ephane P.A. Bordas, Jakub Lengiewicz
- Abstract要約: この研究は、任意の構造の大規模データ(グラフデータ)を扱うために設計された新しい幾何学的深層学習フレームワークMagNETを紹介する。
MAg層は、グラフプーリング/アンプール操作によってインターリーブされ、堅牢で任意の複雑なメッシュを処理することができるグラフU-Netアーキテクチャを形成する。
いくつかの非線形有限要素シミュレーションのためのMAgNETの予測能力を実証し、将来の研究を促進するためのオープンソースデータセットとコードを提供する。
- 参考スコア(独自算出の注目度): 1.1093197168536761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many cutting-edge applications, high-fidelity computational models prove
too slow to be practical and are thus replaced by much faster surrogate models.
Recently, deep learning techniques have become increasingly important in
accelerating such predictions. However, they tend to falter when faced with
larger and more complex problems. Therefore, this work introduces MAgNET:
Multi-channel Aggregation Network, a novel geometric deep learning framework
designed to operate on large-dimensional data of arbitrary structure (graph
data). MAgNET is built upon the MAg (Multichannel Aggregation) operation, which
generalizes the concept of multi-channel local operations in convolutional
neural networks to arbitrary non-grid inputs. The MAg layers are interleaved
with the proposed novel graph pooling/unpooling operations to form a graph
U-Net architecture that is robust and can handle arbitrary complex meshes,
efficiently performing supervised learning on large-dimensional
graph-structured data. We demonstrate the predictive capabilities of MAgNET for
several non-linear finite element simulations and provide open-source datasets
and codes to facilitate future research.
- Abstract(参考訳): 多くの最先端アプリケーションでは、高忠実度計算モデルは実用には遅すぎることが証明され、より高速な代理モデルに置き換えられる。
近年,このような予測を加速する上で,ディープラーニング技術の重要性が高まっている。
しかし、より大きく複雑な問題に直面した場合には、混乱する傾向がある。
そこで本研究では,任意の構造(グラフデータ)の大次元データを扱うための新しい幾何学的深層学習フレームワークであるmagnet: multi-channel aggregation networkを提案する。
MAgNETは、畳み込みニューラルネットワークにおけるマルチチャネル局所演算の概念を任意の非グリッド入力に一般化する、MAg(Multi channel Aggregation)演算に基づいている。
MAg層は提案したグラフプーリング/アンプール操作とインターリーブされ、堅牢で任意の複雑なメッシュを扱えるグラフU-Netアーキテクチャを形成し、大規模グラフ構造化データに対する教師あり学習を効率的に行う。
いくつかの非線形有限要素シミュレーションのためのMAgNETの予測能力を実証し、将来の研究を促進するためのオープンソースデータセットとコードを提供する。
関連論文リスト
- Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Building a Graph-based Deep Learning network model from captured traffic
traces [4.671648049111933]
技術ネットワークモデルの現状は離散事象シミュレーション(DES)に基づいているか依存している
DESは非常に正確であり、計算コストも高く、並列化も困難であり、高性能ネットワークをシミュレートするには実用的ではない。
我々は,実際のネットワークシナリオの複雑さをより正確に捉えるために,グラフニューラルネットワーク(GNN)ベースのソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-18T11:16:32Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Convolution, aggregation and attention based deep neural networks for
accelerating simulations in mechanics [1.0154623955833253]
固体の変形を効率的に学習するための3種類のニューラルネットワークアーキテクチャを実証する。
最初の2つは、最近提案されたCNN U-NETとMagNETフレームワークに基づいており、メッシュベースのデータで学習する上で有望なパフォーマンスを示している。
第3のアーキテクチャであるPerceiver IOは、注目に基づくニューラルネットワークのファミリに属する、非常に最近のアーキテクチャである。
論文 参考訳(メタデータ) (2022-12-01T13:10:56Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Convolutional Learning on Multigraphs [153.20329791008095]
我々は、多グラフ上の畳み込み情報処理を開発し、畳み込み多グラフニューラルネットワーク(MGNN)を導入する。
情報拡散の複雑なダイナミクスを多グラフのエッジのクラス間で捉えるために、畳み込み信号処理モデルを定式化する。
我々は,計算複雑性を低減するため,サンプリング手順を含むマルチグラフ学習アーキテクチャを開発した。
導入されたアーキテクチャは、最適な無線リソース割り当てとヘイトスピーチローカライゼーションタスクに適用され、従来のグラフニューラルネットワークよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-09-23T00:33:04Z) - Dimensionality Reduction in Deep Learning via Kronecker Multi-layer
Architectures [4.836352379142503]
Kronecker積分解の高速行列乗算に基づく新しいディープラーニングアーキテクチャを提案する。
このアーキテクチャにより、ニューラルネットワークのトレーニングと実装が可能になり、計算時間とリソースが大幅に削減されることを示す。
論文 参考訳(メタデータ) (2022-04-08T19:54:52Z) - Learning through structure: towards deep neuromorphic knowledge graph
embeddings [0.5906031288935515]
本稿では,知識グラフ推論のための深層グラフ学習アーキテクチャをニューロモルフィックアーキテクチャにマッピングする戦略を提案する。
ランダムかつ未学習のグラフニューラルネットワークが局所的なグラフ構造を保存することができるという知見に基づいて、凍結したニューラルネットワークの浅い知識グラフ埋め込みモデルを構成する。
我々は,従来型のハードウェア上では,性能水準を維持しながら,高速化とメモリの大幅な削減を実現していることを示す。
論文 参考訳(メタデータ) (2021-09-21T18:01:04Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Analyzing the Performance of Graph Neural Networks with Pipe Parallelism [2.269587850533721]
ノードやエッジの分類やリンクの予測といったタスクで大きな成功を収めたグラフニューラルネットワーク(GNN)に注目した。
グラフ技術の進歩には,大規模ネットワーク処理のための新たなアプローチが必要である。
私たちは、ディープラーニングコミュニティで成功したと知られている既存のツールとフレームワークを使用して、GNNを並列化する方法を研究します。
論文 参考訳(メタデータ) (2020-12-20T04:20:38Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。