論文の概要: Stress Predictions in Polycrystal Plasticity using Graph Neural Networks with Subgraph Training
- arxiv url: http://arxiv.org/abs/2409.05169v2
- Date: Sun, 3 Nov 2024 23:34:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 22:38:45.516816
- Title: Stress Predictions in Polycrystal Plasticity using Graph Neural Networks with Subgraph Training
- Title(参考訳): グラフニューラルネットワークによる多結晶塑性の応力予測
- Authors: Hanfeng Zhai,
- Abstract要約: 金属の多結晶塑性は非線形挙動とひずみ硬化により特徴づけられ、数値モデルが計算集約化される。
有限要素法(FEM)シミュレーションの複雑なジオメトリを用いて多結晶塑性を代理するグラフニューラルネットワーク(GNN)を用いる。
FEMメッシュグラフから生成されたサブグラフに基づいてGNNを訓練する。
トレーニングされたGNNを周期性多結晶体に適用し,結晶塑性理論に基づく応力-ひずみマップを学習する。
提案したGNN塑性モデルは、ランダムに選択された試験多結晶上でのベンチマークFEM法と比較して150倍以上の速度で加速する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Polycrystal plasticity in metals is characterized by nonlinear behavior and strain hardening, making numerical models computationally intensive. We employ Graph Neural Networks (GNN) to surrogate polycrystal plasticity with complex geometries from Finite Element Method (FEM) simulations. We present a novel message-passing GNN that encodes nodal strain and edge distances between FEM mesh cells, aggregates them to obtain embeddings, and combines the decoded embeddings with the nodal strains to predict stress tensors on graph nodes. We demonstrate training GNN based on subgraphs generated from FEM mesh-graphs, in which the mesh cells are converted to nodes and edges are created between adjacent cells. The GNN is trained on 80\% of the graphs and tested on the rest (90 graphs in total). We apply the trained GNN to periodic polycrystals and learn the stress-strain maps based on crystal plasticity theory. The GNN is accurately trained based on FEM graphs, in which the $R^2$ for both training and testing sets are 0.993. The proposed GNN plasticity constitutive model speeds up more than 150 times compared with the benchmark FEM method on randomly selected test polycrystals. We also apply the trained GNN to 30 unseen FEM simulations and the GNN generalizes well with an overall $R^2$ of 0.992. Analysis of the von Mises stress distributions in polycrystals shows that the GNN model accurately learns the stress distribution with low error. By comparing the error distribution across training, testing, and unseen datasets, one deduces that the proposed model does not overfit and generalizes well beyond the training data. This work outlooks surrogating computationally intensive crystal plasticity simulations using graph data.
- Abstract(参考訳): 金属の多結晶塑性は非線形挙動とひずみ硬化により特徴づけられ、数値モデルが計算集約化される。
有限要素法(FEM)シミュレーションの複雑なジオメトリを用いて多結晶塑性を代理するグラフニューラルネットワーク(GNN)を用いる。
本稿では,FEMメッシュセル間の結節ひずみと縁距離を符号化し,それらを集約して埋め込みを得る新しいメッセージパスGNNを提案し,そのデコード埋め込みと結節ひずみを結合してグラフノード上の応力テンソルを予測する。
FEMメッシュグラフから生成されたサブグラフに基づいてGNNをトレーニングし、メッシュセルをノードに変換し、隣接するセル間でエッジを生成する。
GNNは80%のグラフでトレーニングされ、残りのグラフ(合計90グラフ)でテストされる。
トレーニングされたGNNを周期性多結晶体に適用し,結晶塑性理論に基づく応力-ひずみマップを学習する。
GNNはFEMグラフに基づいて正確にトレーニングされ、トレーニングセットとテストセットの両方に対して$R^2$は0.993である。
提案したGNN可塑性構成モデルは,ランダムに選択された試験多結晶上でのベンチマークFEM法と比較して150倍以上の速度を向上する。
また、トレーニングされたGNNを30個の未確認FEMシミュレーションに適用し、総合的なR^2$ 0.992でGNNを一般化する。
ポリ結晶中のvon Mises応力分布の解析は、GNNモデルが低誤差で正確に応力分布を学習していることを示している。
トレーニング、テスト、不明なデータセット間のエラー分布を比較することで、提案したモデルが過度に適合せず、トレーニングデータを超えて一般化されていることを推測する。
本研究は, 計算集約型結晶塑性シミュレーションをグラフデータを用いて概観する。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - Sketch-GNN: Scalable Graph Neural Networks with Sublinear Training Complexity [30.2972965458946]
グラフネットワーク(GNN)はノード分類などのグラフ学習問題に広く適用されている。
GNNの基盤となるグラフをより大きなサイズにスケールアップする場合、完全なグラフをトレーニングするか、あるいは完全なグラフの隣接とノードのメモリへの埋め込みを維持せざるを得ません。
本稿では,学習時間と記憶量がグラフサイズに比例して増加するスケッチベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-21T18:22:11Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - How Curvature Enhance the Adaptation Power of Framelet GCNs [27.831929635701886]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力に実証されている。
本稿では,離散グラフリッチ曲率によるGNNの拡張手法を提案する。
曲率に基づくGNNモデルは、ホモフィリーグラフとヘテロフィリーグラフの両方において、最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-19T06:05:33Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - MGNN: Graph Neural Networks Inspired by Distance Geometry Problem [28.789684784093048]
グラフニューラルネットワーク(GNN)は、機械学習分野における顕著な研究トピックとして現れている。
本稿では,GNNの分類段階における分類器の親近性に着想を得たGNNモデルを提案する。
合成および実世界の両方のデータセットを用いて実験を行い,本モデルの有効性を広範囲に評価した。
論文 参考訳(メタデータ) (2022-01-31T04:15:42Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - Improving Molecular Graph Neural Network Explainability with
Orthonormalization and Induced Sparsity [0.0]
GCNNのトレーニング中に適用する2つの簡単な正規化手法を提案します。
BROはグラフ畳み込み演算を奨励し、正規直交ノード埋め込みを生成する。
ギニ正規化は出力層の重みに適用され、モデルが予測するために使える次元の数を制約する。
論文 参考訳(メタデータ) (2021-05-11T08:13:34Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。