論文の概要: DGNet: A Neural Network Framework Induced by Discontinuous Galerkin Methods
- arxiv url: http://arxiv.org/abs/2503.10021v1
- Date: Thu, 13 Mar 2025 04:00:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:51:05.232484
- Title: DGNet: A Neural Network Framework Induced by Discontinuous Galerkin Methods
- Title(参考訳): DGNet:不連続ガレルキン法によるニューラルネットワークフレームワーク
- Authors: Guanyu Chen, Shengze Xu, Dong Ni, Tieyong Zeng,
- Abstract要約: 本稿では,不連続なガレルキン誘発ニューラルネット(DGNet)のための一般的なフレームワークを提案する。
このアプローチでは、試行空間は計算領域上で定義されたニューラルネットワーク空間から成り、テスト関数空間は断片的に構成される。
定常問題や時間依存問題を含む,DGNetの精度と訓練効率の面から,DGNetの利点を実証する。
- 参考スコア(独自算出の注目度): 18.630043149379432
- License:
- Abstract: We propose a general framework for the Discontinuous Galerkin-induced Neural Network (DGNet) inspired by the Interior Penalty Discontinuous Galerkin Method (IPDGM). In this approach, the trial space consists of piecewise neural network space defined over the computational domain, while the test function space is composed of piecewise polynomials. We demonstrate the advantages of DGNet in terms of accuracy and training efficiency across several numerical examples, including stationary and time-dependent problems. Specifically, DGNet easily handles high perturbations, discontinuous solutions, and complex geometric domains.
- Abstract(参考訳): 本稿では,不連続性ガレルキン誘発ニューラルネット(DGNet)について,IPDGM(Institutal Penalty Discontinuous Galerkin Method)に触発された一般的な枠組みを提案する。
このアプローチでは、試行空間は計算領域上で定義された断片的ニューラルネットワーク空間から成り、テスト関数空間は断片的多項式から成り立っている。
定常問題や時間依存問題を含むいくつかの数値例において、DGNetの精度と訓練効率の面での利点を実証する。
具体的には、DGNetは高い摂動、不連続解、複雑な幾何学的領域を容易に扱う。
関連論文リスト
- RIGNO: A Graph-based framework for robust and accurate operator learning for PDEs on arbitrary domains [9.338762726187358]
任意のドメイン上のPDEの解演算子を学習することは、可能なドメイン形状の多様性のために困難である。
本稿では、任意の領域の点クラウド上のデータからPDEソリューション演算子を学習するために、エンドツーエンドグラフニューラルネットワーク(GNN)に基づくニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2025-01-31T15:14:25Z) - Spatio-spectral graph neural operator for solving computational mechanics problems on irregular domain and unstructured grid [0.9208007322096533]
本稿では空間GNNとスペクトルGNNを効果的に統合した空間スペクトルグラフニューラル演算子(Sp$2$GNO)を提案する。
このフレームワークは個々のメソッドの制限を緩和し、任意の測地をまたいだ解演算子の学習を可能にする。
論文 参考訳(メタデータ) (2024-09-01T03:59:40Z) - Graph Neural Networks Do Not Always Oversmooth [46.57665708260211]
グラフ畳み込みネットワーク (GCN) における過剰スムーシングを, 無限に多くの隠れた特徴の極限におけるガウス過程 (GP) の等価性を用いて検討する。
ネットワークの初期重みが十分に大きな場合、GCNは過度に過度に変化せず、ノード特徴は大きな深さでも情報的のままである。
論文 参考訳(メタデータ) (2024-06-04T12:47:13Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - ParticleWNN: a Novel Neural Networks Framework for Solving Partial
Differential Equations [0.9790236766474201]
偏微分方程式 (PDE) を弱い形で解くために, 粒子弱波形に基づくニューラルネットワーク (ParticleWNN) を開発した。
このフレームワークは高次元および複雑な領域の問題を解くのに特に望ましい。
論文 参考訳(メタデータ) (2023-05-21T11:22:48Z) - PhyGNNet: Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [12.385926494640932]
本稿では,グラフニューラルネットワークの基本値から偏微分方程式を解くためのPhyGNNetを提案する。
特に、計算領域を正規グリッドに分割し、グリッド上の偏微分演算子を定義し、PhyGNNetモデルを構築する最適化のためにネットワークのpde損失を構築する。
論文 参考訳(メタデータ) (2022-08-07T13:33:34Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。