論文の概要: Sparse FEONet: A Low-Cost, Memory-Efficient Operator Network via Finite-Element Local Sparsity for Parametric PDEs
- arxiv url: http://arxiv.org/abs/2601.00672v1
- Date: Fri, 02 Jan 2026 12:39:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.568971
- Title: Sparse FEONet: A Low-Cost, Memory-Efficient Operator Network via Finite-Element Local Sparsity for Parametric PDEs
- Title(参考訳): Sparse FEONet: パラメトリックPDEのための有限要素局所分散による低コストメモリ効率演算子ネットワーク
- Authors: Seungchan Ko, Jiyeon Kim, Dongwook Shin,
- Abstract要約: パラメータ問題に対する演算子学習手法である有限要素演算子ネットワーク(FEONet)について検討する。
FEONetは有限要素空間上のパラメータ・ツー・ソリューションマップを実現し、トレーニングデータを必要としないトレーニング手順を認める。
FEONetの計算コストは増加し、要素数が増えるにつれて精度が低下する。
この問題に対処するために,有限要素の構造を動機とした新しいスパースネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 5.7788693242224545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the finite element operator network (FEONet), an operator-learning method for parametric problems, originally introduced in J. Y. Lee, S. Ko, and Y. Hong, Finite Element Operator Network for Solving Elliptic-Type Parametric PDEs, SIAM J. Sci. Comput., 47(2), C501-C528, 2025. FEONet realizes the parameter-to-solution map on a finite element space and admits a training procedure that does not require training data, while exhibiting high accuracy and robustness across a broad class of problems. However, its computational cost increases and accuracy may deteriorate as the number of elements grows, posing notable challenges for large-scale problems. In this paper, we propose a new sparse network architecture motivated by the structure of the finite elements to address this issue. Throughout extensive numerical experiments, we show that the proposed sparse network achieves substantial improvements in computational cost and efficiency while maintaining comparable accuracy. We also establish theoretical results demonstrating that the sparse architecture can approximate the target operator effectively and provide a stability analysis ensuring reliable training and prediction.
- Abstract(参考訳): 本稿では,J. Y. Lee, S. Ko, Y. Hong, Finite Element Operator Network for Solving Elliptic-Type Parametric PDEs, SIAM J. Sciで最初に導入されたパラメトリック問題に対する演算子学習手法である有限要素演算子ネットワーク(FEONet)について検討する。
Comput
47(2), C501-C528, 2025。
FEONetは有限要素空間上のパラメータ対解写像を実現し、訓練データを必要としない訓練手順を認めながら、幅広い種類の問題に対して高い精度と堅牢性を示す。
しかし、その計算コストが増加し、要素の数が増えるにつれて精度が低下し、大規模な問題に対して顕著な課題が生じる。
本稿では,この問題に対処するために,有限要素の構造を動機とした新しいスパースネットワークアーキテクチャを提案する。
大規模な数値実験を通して,提案したスパースネットワークは計算コストと効率を大幅に向上し,精度は同等であることを示す。
また,スパースアーキテクチャが目標演算子を効果的に近似できることを示す理論的結果を確立し,信頼性の高いトレーニングと予測を保証する安定性解析を提供する。
関連論文リスト
- Physics-Informed Latent Neural Operator for Real-time Predictions of time-dependent parametric PDEs [0.0]
ディープ・オペレーター・ネットワーク(DeepONet)は、偏微分方程式(PDE)によって支配される系の代理モデルとして約束されている。
本研究では,物理を直接学習プロセスに統合する物理インフォームトニューラルネットワークフレームワークPI-Latent-NOを提案する。
論文 参考訳(メタデータ) (2025-01-14T20:38:30Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Physics-informed Discretization-independent Deep Compositional Operator Network [1.2430809884830318]
我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
論文 参考訳(メタデータ) (2024-04-21T12:41:30Z) - Error convergence and engineering-guided hyperparameter search of PINNs:
towards optimized I-FENN performance [0.0]
PINNコンポーネントの2つの重要な側面に着目し,I-FENNの厳格さと性能を向上させる。
本稿では,新しい総合的パフォーマンス指標のセットに基づく体系的な数値的アプローチを提案する。
提案された分析は、科学と工学の他の応用にも直接拡張することができる。
論文 参考訳(メタデータ) (2023-03-03T17:39:06Z) - Analyzing the Performance of Deep Encoder-Decoder Networks as Surrogates
for a Diffusion Equation [0.0]
本研究では,エンコーダ・デコーダ畳み込みニューラルネットワーク(CNN)を定常拡散解法の代用として利用することを検討した。
その結果,トレーニングセットのサイズが大きくなると,性能変動や全体的な誤差の低減に大きく影響することが示唆された。
論文 参考訳(メタデータ) (2023-02-07T22:53:19Z) - High Dimensional Level Set Estimation with Bayesian Neural Network [58.684954492439424]
本稿では,ベイズニューラルネットワークを用いた高次元レベル集合推定問題を解く新しい手法を提案する。
各問題に対して対応する理論情報に基づく取得関数を導出してデータポイントをサンプリングする。
合成データセットと実世界データセットの数値実験により,提案手法は既存手法よりも優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2020-12-17T23:21:53Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。