論文の概要: FEDONet : Fourier-Embedded DeepONet for Spectrally Accurate Operator Learning
- arxiv url: http://arxiv.org/abs/2509.12344v1
- Date: Mon, 15 Sep 2025 18:13:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.712656
- Title: FEDONet : Fourier-Embedded DeepONet for Spectrally Accurate Operator Learning
- Title(参考訳): FEDONet : 高精度演算子学習のためのフーリエ組込みDeepONet
- Authors: Arth Sojitra, Mrigank Dhingra, Omer San,
- Abstract要約: DeepONetsは非線形演算子を学習するための強力なデータ駆動フレームワークとして登場した。
FEDONetは、PDE駆動のデータセットスイートにおける従来のDeepONetよりも優れたパフォーマンスを示している。
FEDONetは、DeepONetベースラインに比べて平均的な相対的なL2性能が2~3倍に向上している。
- 参考スコア(独自算出の注目度): 0.21847754147782886
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep Operator Networks (DeepONets) have recently emerged as powerful data-driven frameworks for learning nonlinear operators, particularly suited for approximating solutions to partial differential equations (PDEs). Despite their promising capabilities, the standard implementation of DeepONets, which typically employs fully connected linear layers in the trunk network, can encounter limitations in capturing complex spatial structures inherent to various PDEs. To address this, we introduce Fourier-embedded trunk networks within the DeepONet architecture, leveraging random Fourier feature mappings to enrich spatial representation capabilities. Our proposed Fourier-embedded DeepONet, FEDONet demonstrates superior performance compared to the traditional DeepONet across a comprehensive suite of PDE-driven datasets, including the two-dimensional Poisson equation, Burgers' equation, the Lorenz-63 chaotic system, Eikonal equation, Allen-Cahn equation, Kuramoto-Sivashinsky equation, and the Lorenz-96 system. Empirical evaluations of FEDONet consistently show significant improvements in solution reconstruction accuracy, with average relative L2 performance gains ranging between 2-3x compared to the DeepONet baseline. This study highlights the effectiveness of Fourier embeddings in enhancing neural operator learning, offering a robust and broadly applicable methodology for PDE surrogate modeling.
- Abstract(参考訳): 近年、Deep Operator Networks (DeepONets) は非線形演算子を学習するための強力なデータ駆動フレームワークとして登場し、特に偏微分方程式(PDE)の近似に適している。
その有望な機能にもかかわらず、典型的にはトランクネットワークに完全に連結された線形層を用いるDeepONetsの標準実装は、様々なPDEに固有の複雑な空間構造をキャプチャする際の制限に直面する可能性がある。
これを解決するために、DeepONetアーキテクチャ内にFourier組み込みトランクネットワークを導入し、空間表現能力を充実させるために、ランダムなFourier特徴マッピングを活用する。
We proposed Fourier-embedded DeepONet, FEDONet is excellent performance than the traditional DeepONet across a comprehensive suite of PDE-driven datasets, including the two-dimensional Poisson equation, Burgers' equation, the Lorenz-63 chaotic system, Eikonal equation, Allen-Cahn equation, Kuramoto-Sivashinsky equation, and the Lorenz-96 system。
FEDONetの実証評価では,DeepONetベースラインに比べて平均相対的なL2性能が2~3倍に向上した。
本研究は、PDEサロゲートモデリングのための堅牢で広く適用可能な方法論を提供するニューラル演算子学習の強化におけるフーリエ埋め込みの有効性を強調した。
関連論文リスト
- DeepONet Augmented by Randomized Neural Networks for Efficient Operator Learning in PDEs [5.84093922354671]
精度と効率のバランスをとるために設計されたハイブリッドアーキテクチャであるRaNN-DeepONetsを提案する。
RaNN-DeepONetsは計算コストを桁違いに削減しながら、同等の精度を達成する。
これらの結果は、PDEシステムにおける演算子学習の効率的な代替手段としてのRaNN-DeepONetsの可能性を強調している。
論文 参考訳(メタデータ) (2025-03-01T03:05:29Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - DeepONet for Solving Nonlinear Partial Differential Equations with Physics-Informed Training [2.44755919161855]
非線形偏微分方程式(PDE)の解法における演算子学習、特にDeepONetの利用について検討する。
本研究では,物理インフォームドトレーニングにおけるDeepONetの性能について検討し,(1)ディープブランチとトランクネットワークの近似能力,(2)ソボレフノルムの一般化誤差の2点に着目した。
論文 参考訳(メタデータ) (2024-10-06T03:43:56Z) - Functional SDE approximation inspired by a deep operator network architecture [0.0]
ディープニューラルネットワークによる微分方程式(SDE)の近似解の導出と解析を行う。
このアーキテクチャはDeep Operator Networks(DeepONets)の概念にインスパイアされたもので、ネットワークに表される基盤の削減という観点からの演算子学習に基づいている。
提案したSDEONetアーキテクチャは,Wienerカオス拡張の最適スパース切り込みを学習することにより,指数複雑性の問題を緩和することを目的としている。
論文 参考訳(メタデータ) (2024-02-05T14:12:35Z) - Learning in latent spaces improves the predictive accuracy of deep
neural operators [0.0]
L-DeepONetは標準のDeepONetの拡張であり、高次元PDE入力の潜在表現と適切なオートエンコーダで識別される出力関数を利用する。
L-DeepONetは時間依存PDEの精度と計算効率の両面で標準手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-15T17:13:09Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Accelerated replica exchange stochastic gradient Langevin diffusion
enhanced Bayesian DeepONet for solving noisy parametric PDEs [7.337247167823921]
本稿では,DeepONetsのニューラルネットワークアーキテクチャを利用したレプリカ交換型Langevin拡散のトレーニングフレームワークを提案する。
提案するフレームワークの探索と活用機能により,ノイズの多いシナリオにおけるDeepONetsのトレーニング収束性の向上が期待できることを示す。
また,レプリカ交換型Langeving Diffusionにより,雑音のシナリオにおけるDeepONetの平均予測精度も向上することを示す。
論文 参考訳(メタデータ) (2021-11-03T19:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。