論文の概要: A Comprehensive Evaluation of Graph Neural Networks and Physics Informed Learning for Surrogate Modelling of Finite Element Analysis
- arxiv url: http://arxiv.org/abs/2510.15750v1
- Date: Thu, 16 Oct 2025 13:32:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.686801
- Title: A Comprehensive Evaluation of Graph Neural Networks and Physics Informed Learning for Surrogate Modelling of Finite Element Analysis
- Title(参考訳): 有限要素解析のサロゲートモデリングのためのグラフニューラルネットワークと物理インフォームドラーニングの総合評価
- Authors: Nayan Kumar Singh,
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)と3次元U-NetをパラメトリックI-ビームのFAAのサロゲートとして包括的に評価する。
本研究では,データによる事前学習と物理情報による微調整を併用したカリキュラム学習戦略が,学習の安定化に不可欠であることを実証する。
グラフベースのアーキテクチャでは、Message Passing Neural Networks (MPNN) と Graph Transformers が最も精度が高く、それぞれ3.5%と2.6%の相対的なL2スコアを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although Finite Element Analysis (FEA) is an integral part of the product design lifecycle, the analysis is computationally expensive, making it unsuitable for many design optimization problems. The deep learning models can be a great solution. However, selecting the architecture that emulates the FEA with great accuracy is a challenge. This paper presents a comprehensive evaluation of graph neural networks (GNNs) and 3D U-Nets as surrogates for FEA of parametric I-beams. We introduce a Physics-Informed Neural Network (PINN) framework, governed by the Navier Cauchy equations, to enforce physical laws. Crucially, we demonstrate that a curriculum learning strategy, pretraining on data followed by physics informed fine tuning, is essential for stabilizing training. Our results show that GNNs fundamentally outperform the U-Net. Even the worst performer among GNNs, the GCN framework, achieved a relative L2 error of 8.7% while the best framework among U Net, U Net with attention mechanism trained on high resolution data, achieved 13.0% score. Among the graph-based architectures, the Message Passing Neural Networks (MPNN) and Graph Transformers achieved the highest accuracy, achieving a relative L2 score of 3.5% and 2.6% respectively. The inclusion of physics fundamental laws (PINN) significantly improved the generalization, reducing error by up to 11.3% on high-signal tasks. While the Graph Transformer is the most accurate model, it is more 37.5% slower during inference when compared to second best model, MPNN PINN. The PINN enhanced MPNN (MPNN PINN) provides the most practical solution. It offers a good compromise between predictive performance, model size, and inference speed.
- Abstract(参考訳): 有限要素解析(FEA)は製品設計ライフサイクルの不可欠な部分であるが、その分析は計算コストがかかり、多くの設計最適化問題に適合しない。
ディープラーニングモデルは優れたソリューションになり得る。
しかし、FEAを非常に正確にエミュレートするアーキテクチャを選択することは困難である。
本稿では,グラフニューラルネットワーク(GNN)と3次元U-NetをパラメトリックI-ビームのFAAのサロゲートとして包括的に評価する。
物理法則を強制するために,Navier Cauchy方程式が支配する物理情報ニューラルネットワーク(PINN)フレームワークを導入する。
重要なことは、カリキュラムの学習戦略が、データに基づいて事前訓練され、物理が微調整を通知されることが、トレーニングの安定化に不可欠であることを実証する。
以上の結果から,GNNはU-Netを根本的に上回っていることがわかった。
GNNの中で最悪のパフォーマンスであるGCNフレームワークでさえ、相対的なL2エラーは8.7%で、UNetの中で最高のフレームワークは、高解像度のデータに基づいてトレーニングされた注意機構を持つUNetであり、スコアは13.0%に達した。
グラフベースのアーキテクチャでは、Message Passing Neural Networks (MPNN) と Graph Transformers が最も精度が高く、それぞれ3.5%と2.6%の相対的なL2スコアを達成した。
物理学の基本法則(PINN)の導入は一般化を著しく改善し、高信号タスクの誤差を最大11.3%削減した。
Graph Transformerは最も正確なモデルであるが、第2のベストモデルであるMPNN PINNと比較して推論時に37.5%遅い。
PINN拡張MPNN (MPNN PINN) は最も実用的なソリューションである。
予測性能、モデルサイズ、推論速度の間には、良い妥協点があります。
関連論文リスト
- Ralts: Robust Aggregation for Enhancing Graph Neural Network Resilience on Bit-flip Errors [10.361566017170295]
本稿では,ビットフリップ誤りに対するGNNのロバスト性を包括的に分析する。
本稿では,ビットフリップエラーに対するGNNレジリエンスを高めるための汎用的で軽量なソリューションであるRaltsを提案する。
Raltsはさまざまなグラフ類似度指標を利用して、アウトレーヤをフィルタリングし、妥協したグラフトポロジを復元する。
論文 参考訳(メタデータ) (2025-07-24T21:03:44Z) - NN-Former: Rethinking Graph Structure in Neural Architecture Representation [67.3378579108611]
グラフニューラルネットワーク(GNN)とトランスフォーマーは、ニューラルネットワークを表現する上で有望なパフォーマンスを示している。
これまでの研究で見過ごされている間、兄弟ノードは中心的であることを示す。
我々のアプローチは、精度と遅延予測の両方において、常に有望な性能を達成する。
論文 参考訳(メタデータ) (2025-07-01T15:46:18Z) - Finding Optimal Kernel Size and Dimension in Convolutional Neural Networks An Architecture Optimization Approach [0.0]
畳み込みニューラルネットワーク(CNN)におけるカーネルサイズ選択は批判的だが、しばしば見過ごされる設計決定である。
本稿では,最適なカーネルサイズ決定のためのBKSEF(Best Kernel Size Estimation)を提案する。
BKSEFは情報理論、信号処理、学習理論の原理を統合することで、情報ゲイン、計算効率、精度の向上のバランスをとる。
論文 参考訳(メタデータ) (2025-06-16T15:15:30Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Error convergence and engineering-guided hyperparameter search of PINNs:
towards optimized I-FENN performance [0.0]
PINNコンポーネントの2つの重要な側面に着目し,I-FENNの厳格さと性能を向上させる。
本稿では,新しい総合的パフォーマンス指標のセットに基づく体系的な数値的アプローチを提案する。
提案された分析は、科学と工学の他の応用にも直接拡張することができる。
論文 参考訳(メタデータ) (2023-03-03T17:39:06Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Elastic-Link for Binarized Neural Network [9.83865304744923]
ELモジュールは、その後の畳み込み出力特徴に実値入力特徴を適応的に付加することにより、BNN内の情報フローを豊かにする。
ELは、大規模なImageNetデータセットに挑戦する上で、大幅に改善されている。
ReActNetの統合により、71.9%の精度で新しい最先端結果が得られる。
論文 参考訳(メタデータ) (2021-12-19T13:49:29Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - FADNet: A Fast and Accurate Network for Disparity Estimation [18.05392578461659]
本研究では,FADNetという分散度推定のための効率的かつ高精度なディープネットワークを提案する。
高速な計算を保存するために、2Dベースの効率的な相関層と積み重ねブロックを利用する。
精度を向上させるために、マルチスケールの重みスケジューリングトレーニング技術を活用するために、マルチスケールの予測を含んでいる。
論文 参考訳(メタデータ) (2020-03-24T10:27:11Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。