論文の概要: Spectral Embedding via Chebyshev Bases for Robust DeepONet Approximation
- arxiv url: http://arxiv.org/abs/2512.09165v1
- Date: Tue, 09 Dec 2025 22:26:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.336865
- Title: Spectral Embedding via Chebyshev Bases for Robust DeepONet Approximation
- Title(参考訳): 頑健なDeepONet近似のためのChebyshevベースを用いたスペクトル埋め込み
- Authors: Muhammad Abid, Omer San,
- Abstract要約: SpectralEmbeded DeepONet (SEDNet) は、トランクが座標入力ではなく、固定されたチェビシェフスペクトル辞書によって駆動される新しい変種である。
SEDNetは一貫して、DeepONet、FEDONet、SEDONetの間で最も低い相対的なL2エラーを達成しており、ベースラインのDeepONetよりも平均30~40%改善されている。
- 参考スコア(独自算出の注目度): 0.6752538702870791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Operator Networks (DeepONets) have become a central tool in data-driven operator learning, providing flexible surrogates for nonlinear mappings arising in partial differential equations (PDEs). However, the standard trunk design based on fully connected layers acting on raw spatial or spatiotemporal coordinates struggles to represent sharp gradients, boundary layers, and non-periodic structures commonly found in PDEs posed on bounded domains with Dirichlet or Neumann boundary conditions. To address these limitations, we introduce the Spectral-Embedded DeepONet (SEDONet), a new DeepONet variant in which the trunk is driven by a fixed Chebyshev spectral dictionary rather than coordinate inputs. This non-periodic spectral embedding provides a principled inductive bias tailored to bounded domains, enabling the learned operator to capture fine-scale non-periodic features that are difficult for Fourier or MLP trunks to represent. SEDONet is evaluated on a suite of PDE benchmarks including 2D Poisson, 1D Burgers, 1D advection-diffusion, Allen-Cahn dynamics, and the Lorenz-96 chaotic system, covering elliptic, parabolic, advective, and multiscale temporal phenomena, all of which can be viewed as canonical problems in computational mechanics. Across all datasets, SEDONet consistently achieves the lowest relative L2 errors among DeepONet, FEDONet, and SEDONet, with average improvements of about 30-40% over the baseline DeepONet and meaningful gains over Fourier-embedded variants on non-periodic geometries. Spectral analyses further show that SEDONet more accurately preserves high-frequency and boundary-localized features, demonstrating the value of Chebyshev embeddings in non-periodic operator learning. The proposed architecture offers a simple, parameter-neutral modification to DeepONets, delivering a robust and efficient spectral framework for surrogate modeling of PDEs on bounded domains.
- Abstract(参考訳): Deep Operator Networks (DeepONets) はデータ駆動型演算子学習において中心的なツールとなり、偏微分方程式(PDE)で生じる非線形写像に対する柔軟なサロゲートを提供する。
しかしながら、原位置座標や時空間座標に作用する完全連結層に基づく標準的なトランク設計は、ディリクレ境界条件やノイマン境界条件を持つ有界領域上でのPDEでよく見られる鋭い勾配、境界層、および非周期構造を表現するのに苦労する。
これらの制約に対処するため、我々は、トランクが座標入力ではなく、固定されたチェビシェフスペクトル辞書によって駆動される新しいDeepONetであるSpectral-Embeded DeepONet(SEDONet)を導入する。
この非周期スペクトル埋め込みは、有界領域に合わせた帰納的バイアスを与えるため、学習作用素はフーリエやMLPのトランクが表すのが困難である微細な非周期的特徴を捉えることができる。
SEDONetは、2D Poisson, 1D Burgers, 1D advection-diffusion, Allen-Cahn dynamics, Lorenz-96 Chaotic systemを含む一連のPDEベンチマークで評価され、楕円型、放物型、対流型、および多スケールの時間現象をカバーする。
すべてのデータセット全体で、SEDONetは、DeepONet、FEDONet、SEDONetの中で、一貫して最も低い相対的なL2エラーを達成している。
スペクトル解析により、SEDONetは、非周期的演算子学習におけるチェビシェフ埋め込みの価値を証明し、高周波および境界局所化特徴をより正確に保存することを示した。
提案アーキテクチャは、DeepONetsに対する単純でパラメータニュートラルな修正を提供し、境界領域上のPDEのサロゲートモデリングのための堅牢で効率的なスペクトルフレームワークを提供する。
関連論文リスト
- FEDONet : Fourier-Embedded DeepONet for Spectrally Accurate Operator Learning [0.21847754147782886]
DeepONetsは非線形演算子を学習するための強力なデータ駆動フレームワークとして登場した。
FEDONetは従来のDeepONetよりも優れたパフォーマンスを示している。
FEDONetは、すべてのベンチマークPDEに対して一貫して優れた再構築精度を提供する。
論文 参考訳(メタデータ) (2025-09-15T18:13:28Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。