論文の概要: Stress Predictions in Polycrystal Plasticity using Graph Neural Networks with Subgraph Training
- arxiv url: http://arxiv.org/abs/2409.05169v3
- Date: Sat, 21 Dec 2024 14:34:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:51:03.628118
- Title: Stress Predictions in Polycrystal Plasticity using Graph Neural Networks with Subgraph Training
- Title(参考訳): グラフニューラルネットワークによる多結晶塑性の応力予測
- Authors: Hanfeng Zhai,
- Abstract要約: 有限要素法(FEM)シミュレーションから多結晶塑性の複雑な測地応力を予測するためにグラフニューラルネットワーク(GNN)を用いる。
本稿では,FEMメッシュセル間のノイズ歪みとエッジ距離を符号化する新しいメッセージパスGNNを提案する。
本稿では, 複雑なジオメトリーを持つ周期性多結晶体にGNNを応用し, 結晶塑性理論に基づくひずみ-応力写像を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Numerical modeling of polycrystal plasticity is computationally intensive. We employ Graph Neural Networks (GNN) to predict stresses on complex geometries for polycrystal plasticity from Finite Element Method (FEM) simulations. We present a novel message-passing GNN that encodes nodal strain and edge distances between FEM mesh cells, and aggregates to obtain embeddings and combines the decoded embeddings with the nodal strains to predict stress tensors on graph nodes. The GNN is trained on subgraphs generated from FEM mesh graphs, in which the mesh cells are converted to nodes and edges are created between adjacent cells. We apply the trained GNN to periodic polycrystals with complex geometries and learn the strain-stress maps based on crystal plasticity theory. The GNN is accurately trained on FEM graphs, in which the $R^2$ for both training and testing sets are larger than 0.99. The proposed GNN approach speeds up more than 150 times compared with FEM on stress predictions. We also apply the trained GNN to unseen simulations for validations and the GNN generalizes well with an overall $R^2$ of 0.992. The GNN accurately predicts the von Mises stress on polycrystals. The proposed model does not overfit and generalizes well beyond the training data, as the error distributions demonstrate. This work outlooks surrogating crystal plasticity simulations using graph data.
- Abstract(参考訳): 多結晶塑性の数値モデリングは計算集約的である。
有限要素法(FEM)シミュレーションから多結晶塑性の複雑な測地応力を予測するためにグラフニューラルネットワーク(GNN)を用いる。
本稿では,FEMメッシュセル間の結節ひずみと縁距離を符号化した新しいメッセージパスGNNを提案する。
GNNは、FEMメッシュグラフから生成されたサブグラフに基づいて訓練され、メッシュセルはノードに変換され、隣のセル間でエッジが生成される。
本稿では, 複雑なジオメトリーを持つ周期性多結晶体にGNNを応用し, 結晶塑性理論に基づくひずみ-応力写像を学習する。
GNNはFEMグラフ上で正確にトレーニングされており、トレーニングセットとテストセットの両方に対して$R^2$は0.99より大きい。
提案したGNNアプローチは,ストレス予測のFEMと比較して150倍以上の高速化を実現している。
また、トレーニングされたGNNを検証の未確認シミュレーションに適用し、総合的な$R^2$ 0.992でGNNを一般化する。
GNNは、多結晶上でのvon Mises応力を正確に予測する。
提案モデルでは, 誤差分布が示すように, トレーニングデータ以上に過度に適合せず, 一般化しない。
この研究は、グラフデータを用いた結晶の塑性シミュレーションを概観する。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Improving Molecular Graph Neural Network Explainability with
Orthonormalization and Induced Sparsity [0.0]
GCNNのトレーニング中に適用する2つの簡単な正規化手法を提案します。
BROはグラフ畳み込み演算を奨励し、正規直交ノード埋め込みを生成する。
ギニ正規化は出力層の重みに適用され、モデルが予測するために使える次元の数を制約する。
論文 参考訳(メタデータ) (2021-05-11T08:13:34Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。