論文の概要: Learning polycrystal plasticity using mesh-based subgraph geometric deep learning
- arxiv url: http://arxiv.org/abs/2409.05169v1
- Date: Sun, 8 Sep 2024 17:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 17:08:26.845666
- Title: Learning polycrystal plasticity using mesh-based subgraph geometric deep learning
- Title(参考訳): メッシュを用いたサブグラフ幾何学的深層学習による多結晶塑性の学習
- Authors: Hanfeng Zhai,
- Abstract要約: 金属中の多結晶塑性は非線形挙動とひずみ硬化により特徴づけられ、数値モデルが計算集約化される。
有限要素法(FEM)シミュレーションから多結晶塑性を代理するグラフニューラルネットワーク(GNN)を用いる。
提案したGNN塑性モデルは、ランダムに選択された試験多結晶上でのベンチマークFEM法と比較して150倍以上の速度で加速する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Polycrystal plasticity in metals is characterized by nonlinear behavior and strain hardening, making numerical models computationally intensive. We employ Graph Neural Network (GNN) to surrogate polycrystal plasticity from finite element method (FEM) simulations. We present a novel message-passing GNN that encodes nodal strain and edge distances between FEM mesh cells, aggregates them to obtain embeddings, and combines the decoded embeddings with the nodal strains to predict stress tensors on graph nodes. We demonstrate training GNN based on subgraphs generated from FEM mesh-graphs, in which the mesh cells are converted to nodes and edges are created between adjacent cells. The GNN is trained on 72 graphs and tested on 18 graphs. We apply the trained GNN to periodic polycrystals and learn the stress-strain maps based on strain-gradient plasticity theory. The GNN is accurately trained based on FEM graphs, in which the $R^2$ for both training and testing sets are 0.993. The proposed GNN plasticity constitutive model speeds up more than 150 times compared with the benchmark FEM method on randomly selected test polycrystals. We also apply the trained GNN to 30 unseen FEM simulations and the GNN generalizes well with an overall $R^2$ of 0.992. Analysis of the von Mises stress distributions in polycrystals shows that the GNN model accurately learns the stress distribution with low error. By comparing the error distribution across training, testing, and unseen datasets, we can deduce that the proposed model does not overfit and generalizes well beyond the training data. This work is expected to pave the way for using graphs as surrogates in polycrystal plasticity modeling.
- Abstract(参考訳): 金属の多結晶塑性は非線形挙動とひずみ硬化により特徴づけられ、数値モデルが計算集約化される。
有限要素法(FEM)シミュレーションから多結晶塑性を代理するグラフニューラルネットワーク(GNN)を用いる。
本稿では,FEMメッシュセル間の結節ひずみと縁距離を符号化し,それらを集約して埋め込みを得る新しいメッセージパスGNNを提案し,そのデコード埋め込みと結節ひずみを結合してグラフノード上の応力テンソルを予測する。
FEMメッシュグラフから生成されたサブグラフに基づいてGNNをトレーニングし、メッシュセルをノードに変換し、隣接するセル間でエッジを生成する。
GNNは72グラフでトレーニングされ、18グラフでテストされている。
トレーニングされたGNNを周期性多結晶体に適用し、ひずみ勾配塑性理論に基づいて応力-ひずみマップを学習する。
GNNはFEMグラフに基づいて正確にトレーニングされ、トレーニングセットとテストセットの両方に対して$R^2$は0.993である。
提案したGNN可塑性構成モデルは,ランダムに選択された試験多結晶上でのベンチマークFEM法と比較して150倍以上の速度を向上する。
また、トレーニングされたGNNを30個の未確認FEMシミュレーションに適用し、総合的なR^2$ 0.992でGNNを一般化する。
ポリ結晶中のvon Mises応力分布の解析は、GNNモデルが低誤差で正確に応力分布を学習していることを示している。
トレーニング、テスト、不明なデータセット間のエラー分布を比較することで、提案したモデルが過度に適合せず、トレーニングデータを超えて一般化できないと推定できる。
この研究は、多結晶塑性モデリングにおいて、グラフをサロゲートとして用いるための道を開くことが期待されている。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - Sketch-GNN: Scalable Graph Neural Networks with Sublinear Training Complexity [30.2972965458946]
グラフネットワーク(GNN)はノード分類などのグラフ学習問題に広く適用されている。
GNNの基盤となるグラフをより大きなサイズにスケールアップする場合、完全なグラフをトレーニングするか、あるいは完全なグラフの隣接とノードのメモリへの埋め込みを維持せざるを得ません。
本稿では,学習時間と記憶量がグラフサイズに比例して増加するスケッチベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-21T18:22:11Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - How Curvature Enhance the Adaptation Power of Framelet GCNs [27.831929635701886]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力に実証されている。
本稿では,離散グラフリッチ曲率によるGNNの拡張手法を提案する。
曲率に基づくGNNモデルは、ホモフィリーグラフとヘテロフィリーグラフの両方において、最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-19T06:05:33Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - MGNN: Graph Neural Networks Inspired by Distance Geometry Problem [28.789684784093048]
グラフニューラルネットワーク(GNN)は、機械学習分野における顕著な研究トピックとして現れている。
本稿では,GNNの分類段階における分類器の親近性に着想を得たGNNモデルを提案する。
合成および実世界の両方のデータセットを用いて実験を行い,本モデルの有効性を広範囲に評価した。
論文 参考訳(メタデータ) (2022-01-31T04:15:42Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - Improving Molecular Graph Neural Network Explainability with
Orthonormalization and Induced Sparsity [0.0]
GCNNのトレーニング中に適用する2つの簡単な正規化手法を提案します。
BROはグラフ畳み込み演算を奨励し、正規直交ノード埋め込みを生成する。
ギニ正規化は出力層の重みに適用され、モデルが予測するために使える次元の数を制約する。
論文 参考訳(メタデータ) (2021-05-11T08:13:34Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。