論文の概要: G-Adaptive mesh refinement -- leveraging graph neural networks and differentiable finite element solvers
- arxiv url: http://arxiv.org/abs/2407.04516v1
- Date: Fri, 5 Jul 2024 13:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 13:20:52.759246
- Title: G-Adaptive mesh refinement -- leveraging graph neural networks and differentiable finite element solvers
- Title(参考訳): G-Adaptive Mesh refinement -- グラフニューラルネットワークと微分可能な有限要素ソルバを活用する
- Authors: James Rowbottom, Georg Maierhofer, Teo Deveney, Katharina Schratz, Pietro Liò, Carola-Bibiane Schönlieb, Chris Budd,
- Abstract要約: メッシュ再配置(r適応性)は、最適なFE解精度を得るために、固定数のメッシュポイントの位置を最適化しようとする。
r適応性に対する最近の機械学習アプローチは、主にそのような古典的手法のための高速なサロゲートの構築に焦点を当てている。
我々の新しいアプローチは、グラフニューラルネットワーク(GNN)によるアーキテクチャと、FEソリューションエラーの直接最小化に基づくトレーニングを組み合わせたものです。
- 参考スコア(独自算出の注目度): 21.82887690060956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel, and effective, approach to the long-standing problem of mesh adaptivity in finite element methods (FEM). FE solvers are powerful tools for solving partial differential equations (PDEs), but their cost and accuracy are critically dependent on the choice of mesh points. To keep computational costs low, mesh relocation (r-adaptivity) seeks to optimise the position of a fixed number of mesh points to obtain the best FE solution accuracy. Classical approaches to this problem require the solution of a separate nonlinear "meshing" PDE to find the mesh point locations. This incurs significant cost at remeshing and relies on certain a-priori assumptions and guiding heuristics for optimal mesh point location. Recent machine learning approaches to r-adaptivity have mainly focused on the construction of fast surrogates for such classical methods. Our new approach combines a graph neural network (GNN) powered architecture, with training based on direct minimisation of the FE solution error with respect to the mesh point locations. The GNN employs graph neural diffusion (GRAND), closely aligning the mesh solution space to that of classical meshing methodologies, thus replacing heuristics with a learnable strategy, and providing a strong inductive bias. This allows for rapid and robust training and results in an extremely efficient and effective GNN approach to online r-adaptivity. This method outperforms classical and prior ML approaches to r-adaptive meshing on the test problems we consider, in particular achieving lower FE solution error, whilst retaining the significant speed-up over classical methods observed in prior ML work.
- Abstract(参考訳): 本稿では,有限要素法(FEM)におけるメッシュ適応性という長年の課題に対して,新しい,効果的なアプローチを提案する。
FEソルバは偏微分方程式(PDE)を解く強力なツールであるが、そのコストと精度はメッシュポイントの選択に大きく依存する。
計算コストを低く抑えるため、メッシュ再配置(r適応性)は固定数のメッシュポイントの位置を最適化し、最高のFEソリューション精度を得る。
この問題に対する古典的なアプローチは、メッシュポイントの位置を見つけるために、別の非線形「メッシング」PDEの解を必要とする。
このことは、特定のアプリオリ仮定と最適メッシュ点位置の誘導ヒューリスティックに頼り、リメッシングのかなりのコストを発生させる。
r適応性に対する最近の機械学習アプローチは、主にそのような古典的手法のための高速なサロゲートの構築に焦点を当てている。
我々の新しいアプローチは、グラフニューラルネットワーク(GNN)によるアーキテクチャと、メッシュポイント位置に関するFEソリューションエラーの直接最小化に基づくトレーニングを組み合わせたものです。
GNNはグラフニューラルネットワーク拡散(GRAND)を採用し、メッシュソリューション空間を古典的なメッシュ手法と密接に整合させ、ヒューリスティックを学習可能な戦略に置き換え、強い帰納バイアスを与える。
これにより、迅速で堅牢なトレーニングが可能になり、結果としてオンラインr-adaptivityに対する極めて効率的で効果的なGNNアプローチが実現される。
この手法は、従来のMLの手法よりも高い高速化を維持しつつ、特に低いFE解誤差を達成することを考えるテスト問題に対して、古典的および先行的なMLアプローチよりも優れたr適応的メッシュ化を実現する。
関連論文リスト
- DMF-TONN: Direct Mesh-free Topology Optimization using Neural Networks [4.663709549795511]
本研究では、密度場近似ニューラルネットワークと変位場近似ニューラルネットワークを統合することで、トポロジ最適化を行うための直接メッシュフリー手法を提案する。
この直接積分手法は従来のトポロジ最適化手法に匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-05-06T18:04:51Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - M2N: Mesh Movement Networks for PDE Solvers [17.35053721712421]
PDEソルバのための学習ベースエンドツーエンドメッシュ移動フレームワークを提案する。
主な要件は、メッシュの緩和、バウンダリ一貫性、さまざまな解像度のメッシュへの一般化である。
我々は定常・時間依存・線形・非線形方程式について検証する。
論文 参考訳(メタデータ) (2022-04-24T04:23:31Z) - Adaptive neural domain refinement for solving time-dependent
differential equations [0.0]
ニューラルネットワークを用いた微分方程式の古典的な解法は、解領域の離散化を伴う微分方程式を用いるニューラルネットワーク形式に基づいている。
このような重要かつ成功した戦略を、ニューラルネットワークベースのソリューションの分野に移行することが望ましい。
本稿では,時間依存問題の解決を目的とした新しい適応型ニューラルアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-23T13:19:07Z) - Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax
Problems [80.46370778277186]
大規模凸凹型ミニマックス問題は、ゲーム理論、堅牢なトレーニング、生成的敵ネットワークのトレーニングなど、多くの応用で発生する。
通信効率のよい分散外グレードアルゴリズムであるLocalAdaSientを開発した。
サーバモデル。
等質な環境と異質な環境の両方において,その有効性を実証する。
論文 参考訳(メタデータ) (2021-06-18T09:42:05Z) - Optimal Transport Based Refinement of Physics-Informed Neural Networks [0.0]
我々は、最適輸送(OT)の概念に基づく偏微分方程式(PDE)の解法として、よく知られた物理情報ニューラルネットワーク(PINN)の改良戦略を提案する。
PINNの解法は、完全接続された病理のスペクトルバイアス、不安定な勾配、収束と精度の難しさなど、多くの問題に悩まされている。
本稿では,既存の PINN フレームワークを補完する OT-based sample を用いて,Fokker-Planck-Kolmogorov Equation (FPKE) を解くための新しいトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-05-26T02:51:20Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - A hybrid MGA-MSGD ANN training approach for approximate solution of
linear elliptic PDEs [0.0]
MGA-MSGD(Modified Genetic-Multilevel Gradient Descent)トレーニングアルゴリズムを導入しました。
ANNによるPDEによって記述された3次元機械的問題の精度と効率を大幅に改善する。
論文 参考訳(メタデータ) (2020-12-18T10:59:07Z) - Second-Order Guarantees in Centralized, Federated and Decentralized
Nonconvex Optimization [64.26238893241322]
単純なアルゴリズムは、多くの文脈において優れた経験的結果をもたらすことが示されている。
いくつかの研究は、非最適化問題を研究するための厳密な分析的正当化を追求している。
これらの分析における重要な洞察は、摂動が局所的な降下アルゴリズムを許容する上で重要な役割を担っていることである。
論文 参考訳(メタデータ) (2020-03-31T16:54:22Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。