論文の概要: Discontinuous Galerkin finite element operator network for solving non-smooth PDEs
- arxiv url: http://arxiv.org/abs/2601.03668v1
- Date: Wed, 07 Jan 2026 07:43:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.152214
- Title: Discontinuous Galerkin finite element operator network for solving non-smooth PDEs
- Title(参考訳): 非滑らかなPDEを解く不連続ガレルキン有限要素作用素ネットワーク
- Authors: Kapil Chawla, Youngjoon Hong, Jae Yong Lee, Sanghyun Lee,
- Abstract要約: 本稿では,データフリーな演算子学習フレームワークであるDiscontinuous Galerkin Finite Element Operator Network (DG--FEONet)を紹介する。
パラメトリック偏微分方程式を解くために、不連続ガレルキン法(DG)の強みとニューラルネットワークを組み合わせる。
この結果から,局所的な離散化スキームと機械学習を組み合わせることで,ロバストで特異性を考慮した演算子近似を実現する可能性が示唆された。
- 参考スコア(独自算出の注目度): 15.286345729268149
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce Discontinuous Galerkin Finite Element Operator Network (DG--FEONet), a data-free operator learning framework that combines the strengths of the discontinuous Galerkin (DG) method with neural networks to solve parametric partial differential equations (PDEs) with discontinuous coefficients and non-smooth solutions. Unlike traditional operator learning models such as DeepONet and Fourier Neural Operator, which require large paired datasets and often struggle near sharp features, our approach minimizes the residual of a DG-based weak formulation using the Symmetric Interior Penalty Galerkin (SIPG) scheme. DG-FEONet predicts element-wise solution coefficients via a neural network, enabling data-free training without the need for precomputed input-output pairs. We provide theoretical justification through convergence analysis and validate the model's performance on a series of one- and two-dimensional PDE problems, demonstrating accurate recovery of discontinuities, strong generalization across parameter space, and reliable convergence rates. Our results highlight the potential of combining local discretization schemes with machine learning to achieve robust, singularity-aware operator approximation in challenging PDE settings.
- Abstract(参考訳): 本稿では、不連続なガレルキン法(DG)の強みをニューラルネットワークと組み合わせ、不連続な係数と非滑らかな解のパラメトリック偏微分方程式(PDE)を解くデータフリーな演算子学習フレームワークである不連続ガレルキン有限要素演算子ネットワーク(DG-FEONet)を紹介する。
大規模データセットを必要とするDeepONetやFourier Neural Operatorのような従来の演算子学習モデルとは異なり,本手法では,Symmetric intra Penalty Galerkin (SIPG) スキームを用いたDGベースの弱い定式化の残差を最小限に抑える。
DG-FEONetはニューラルネットワークを介して要素幅の解係数を予測し、事前計算された入出力ペアを必要とせずに、データフリーなトレーニングを可能にする。
本研究では,一次元および二次元のPDE問題に対する収束解析による理論的正当化とモデルの性能評価を行い,不連続性の正確な回復,パラメータ空間の強い一般化,信頼性のある収束率を示す。
この結果から,PDE設定に挑戦する上で,局所的な離散化スキームと機械学習を組み合わせることで,ロバストで特異性を考慮した演算子近似を実現する可能性が示唆された。
関連論文リスト
- Physics-informed low-rank neural operators with application to parametric elliptic PDEs [0.0]
点クラウドデータ上で偏微分方程式(PDE)の解演算子を近似するニューラルネットワークフレームワークであるPILNOを提案する。
PILNOは、低ランクカーネル近似とエンコーダ・デコーダアーキテクチャを組み合わせることで、高速で連続的なワンショットの予測を可能にし、特定の離散化とは無関係である。
本稿では, 関数フィッティング, ポアソン方程式, 可変係数のスクリーニングポアソン方程式, パラメータ化ダーシー流など, 様々な問題に対して有効性を示す。
論文 参考訳(メタデータ) (2025-09-09T12:54:06Z) - Accelerating PDE Solvers with Equation-Recast Neural Operator Preconditioning [9.178290601589365]
Minimal-Data Parametric Neural Operator Preconditioning (MD-PNOP) はパラメトリックPDEソルバを高速化するための新しいパラダイムである。
パラメータ偏差の残差を、トレーニングされたニューラル演算子を使用して、オフラインでソリューションを洗練させる、追加のソース用語として再キャストする。
固定ソース、単一グループ固有値、および多群結合固有値問題に対する完全順序忠実度を維持しつつ、計算時間の50%削減を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-01T12:14:58Z) - Spectral operator learning for parametric PDEs without data reliance [6.7083321695379885]
本研究では,データ活用を必要とせずにパラメトリック偏微分方程式(PDE)を解く演算子に基づく新しい手法を提案する。
提案手法は,既存の科学的機械学習技術と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T12:37:15Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Convergence analysis of unsupervised Legendre-Galerkin neural networks
for linear second-order elliptic PDEs [0.8594140167290099]
教師なしレジェンダ-ガレルキンニューラルネットワーク(ULGNet)の収束解析を行う。
ULGNetは偏微分方程式(PDE)を解くためのディープラーニングに基づく数値法である
論文 参考訳(メタデータ) (2022-11-16T13:31:03Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。