論文の概要: FEM-Informed Hypergraph Neural Networks for Efficient Elastoplasticity
- arxiv url: http://arxiv.org/abs/2602.07364v1
- Date: Sat, 07 Feb 2026 05:11:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.586987
- Title: FEM-Informed Hypergraph Neural Networks for Efficient Elastoplasticity
- Title(参考訳): 効率的な弾塑性のためのFEMインフォームドハイパーグラフニューラルネットワーク
- Authors: Jianchuan Yang, Xi Chen, Jidong Zhao,
- Abstract要約: グラフニューラルネットワーク(GNN)は、スパース演算子や非構造化離散化と自然に一致している。
離散的な物理損失により、ノードに有限要素計算を埋め込み、ガウス点を直接メッセージパッシング層に埋め込む。
我々はFHGNN(FEM-Informed Hypergraph Neural Networks)を提案する。
- 参考スコア(独自算出の注目度): 3.211924713637672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) naturally align with sparse operators and unstructured discretizations, making them a promising paradigm for physics-informed machine learning in computational mechanics. Motivated by discrete physics losses and Hierarchical Deep Learning Neural Network (HiDeNN) constructions, we embed finite-element (FEM) computations at nodes and Gauss points directly into message-passing layers and propose a numerically consistent FEM-Informed Hypergraph Neural Networks (FHGNN). Similar to conventional physics-informed neural networks (PINNs), training is purely physics-driven and requires no labeled data: the input is a node element hypergraph whose edges encode mesh connectivity. Guided by empirical results and condition-number analysis, we adopt an efficient variational loss. Validated on 3D benchmarks, including cyclic loading with isotropic/kinematic hardening, the proposed method delivers substantially improved accuracy and efficiency over recent, competitive PINN variants. By leveraging GPU-parallel tensor operations and the discrete representation, it scales effectively to large elastoplastic problems and can be competitive with, or faster than, multi-core FEM implementations at comparable accuracy. This work establishes a foundation for scalable, physics-embedded learning in nonlinear solid mechanics.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、自然にスパース演算子や非構造的離散化と整合し、計算力学における物理インフォームド機械学習において有望なパラダイムとなる。
離散的な物理損失と階層型ディープラーニングニューラルネットワーク(HiDeNN)の構築により、ノードに有限要素(FEM)計算を埋め込み、ガウス点を直接メッセージ通過層に埋め込むとともに、数値的に一貫したFEMインフォームドハイパーグラフニューラルネットワーク(FHGNN)を提案する。
従来の物理情報ニューラルネットワーク(PINN)と同様に、トレーニングは純粋に物理駆動であり、ラベル付きデータを必要としない。
実験結果と条件数解析によって導かれ, 効率的な変分損失を採用する。
等方的/キネマティック・ハードニングによる循環負荷を含む3Dベンチマークで検証した結果,近年のPINN変種に比べて精度と効率が大幅に向上した。
GPU並列テンソル演算と離散表現を利用することで、大規模な弾塑性問題に効果的にスケールし、マルチコアのFEM実装と同等の精度で競合するか、あるいは高速に競合することができる。
この研究は、非線形固体力学におけるスケーラブルで物理学に埋め込まれた学習の基礎を確立する。
関連論文リスト
- Physical Data Embedding for Memory Efficient AI [0.9012198585960439]
本稿では,物理のマスター方程式を,バックプロパゲーションによってトレーニングされた多層ネットワークに変換するアプローチを提案する。
結果として得られる汎用モデルは、基盤となる物理システムの特性にデータを効果的にエンコードする。
特に、トレーニングされた"Nonlinear Schr"odinger Network"は解釈可能であり、すべてのパラメータは物理的意味を持つ。
論文 参考訳(メタデータ) (2024-07-19T17:58:00Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Physics-Informed Neural Networks with Hard Linear Equality Constraints [9.101849365688905]
本研究は,線形等式制約を厳格に保証する物理インフォームドニューラルネットワークKKT-hPINNを提案する。
溶融タンク炉ユニット, 抽出蒸留サブシステム, 化学プラントのアスペンモデル実験により, このモデルが予測精度をさらに高めることを示した。
論文 参考訳(メタデータ) (2024-02-11T17:40:26Z) - Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems [0.8192907805418583]
本稿では、動的Poisson-Nernst-Planck(PNP)方程式を解くために、メッシュレス深層学習アルゴリズム、EPINN(enriched Physics-informed Neural Network)を提案する。
EPINNは、従来の物理インフォームドニューラルネットワークを基盤フレームワークとして、損失関数のバランスをとるために適応的な損失重みを追加する。
数値計算の結果, 結合された非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-01T02:57:07Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Hybrid quantum physics-informed neural networks for simulating computational fluid dynamics in complex shapes [37.69303106863453]
本稿では3次元Y字ミキサー内の層流をシミュレートするハイブリッド量子物理学インフォームドニューラルネットワークを提案する。
我々のアプローチは、量子モデルの表現力と物理インフォームドニューラルネットワークの柔軟性を組み合わせることで、純粋に古典的なニューラルネットワークに比べて21%高い精度を実現している。
論文 参考訳(メタデータ) (2023-04-21T20:49:29Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - Physics informed deep learning for computational elastodynamics without
labeled data [13.084113582897965]
ラベル付きデータに頼らずにエラストダイナミックス問題をモデル化するために,混合可変出力を持つ物理インフォームドニューラルネットワーク(PINN)を提案する。
その結果,計算力学応用の文脈におけるPINNの有望性を示す。
論文 参考訳(メタデータ) (2020-06-10T19:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。