論文の概要: Sumudu Neural Operator for ODEs and PDEs
- arxiv url: http://arxiv.org/abs/2511.11762v1
- Date: Fri, 14 Nov 2025 02:57:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.292339
- Title: Sumudu Neural Operator for ODEs and PDEs
- Title(参考訳): ODEとPDEのためのスムドゥニューラル演算子
- Authors: Ben Zelenskiy, Saibilila Abudukelimu, George Flint, Kevin Zhu, Sunishchal Dev,
- Abstract要約: 本研究では,スムズ変換の性質に根ざした神経演算子であるスムズニューラル演算子(SNO)を紹介する。
SNO は PDE 上の FNO よりも優れており、Euler-Bernoulli Beam および Diffusion Equation 上の最小誤差を含むいくつかの PDE タスクにおいて LNO との競合精度を示す。
これらの予備的な発見は、スムドゥ変換をニューラル演算子設計、特にPDEの特定のクラスに約束することを示唆している。
- 参考スコア(独自算出の注目度): 2.497936211748472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Sumudu Neural Operator (SNO), a neural operator rooted in the properties of the Sumudu Transform. We leverage the relationship between the polynomial expansions of transform pairs to decompose the input space as coefficients, which are then transformed into the Sumudu Space, where the neural operator is parameterized. We evaluate the operator in ODEs (Duffing Oscillator, Lorenz System, and Driven Pendulum) and PDEs (Euler-Bernoulli Beam, Burger's Equation, Diffusion, Diffusion-Reaction, and Brusselator). SNO achieves superior performance to FNO on PDEs and demonstrates competitive accuracy with LNO on several PDE tasks, including the lowest error on the Euler-Bernoulli Beam and Diffusion Equation. Additionally, we apply zero-shot super-resolution to the PDE tasks to observe the model's capability of obtaining higher quality data from low-quality samples. These preliminary findings suggest promise for the Sumudu Transform as a neural operator design, particularly for certain classes of PDEs.
- Abstract(参考訳): 本研究では,スムズ変換の性質に根ざした神経演算子であるスムズニューラル演算子(SNO)を紹介する。
変換対の多項式展開の関係を利用して入力空間を係数として分解し、スムドゥ空間に変換し、ニューラル作用素をパラメータ化する。
ODE(Duffing Oscillator, Lorenz System, Driven Pendulum)およびPDE(Euler-Bernoulli Beam, Burger's Equation, Diffusion, Diffusion-Reaction, Brusselator)における演算子の評価を行った。
SNO は PDE 上の FNO よりも優れており、Euler-Bernoulli Beam および Diffusion Equation 上の最小誤差を含むいくつかの PDE タスクにおいて LNO との競合精度を示す。
さらに、PDEタスクにゼロショット超解像を適用し、低品質サンプルから高品質なデータを取得するモデルの能力を観察する。
これらの予備的な発見は、スムドゥ変換をニューラル演算子設計、特にPDEの特定のクラスに約束することを示唆している。
関連論文リスト
- Derivative-Informed Fourier Neural Operator: Universal Approximation and Applications to PDE-Constrained Optimization [0.9236074230806578]
微分インフォームドフーリエニューラル演算子(DIFNO)の近似理論と効率的な学習法を提案する。
DIFNOは、高忠実度演算子の出力とフレシェ微分サンプルを併用して予測誤差を最小化する。
演算子学習や無限次元PDE制約逆問題の解法において,DIFNOがより優れていることを示す。
論文 参考訳(メタデータ) (2025-12-16T04:54:24Z) - Physics-informed low-rank neural operators with application to parametric elliptic PDEs [0.0]
点クラウドデータ上で偏微分方程式(PDE)の解演算子を近似するニューラルネットワークフレームワークであるPILNOを提案する。
PILNOは、低ランクカーネル近似とエンコーダ・デコーダアーキテクチャを組み合わせることで、高速で連続的なワンショットの予測を可能にし、特定の離散化とは無関係である。
本稿では, 関数フィッティング, ポアソン方程式, 可変係数のスクリーニングポアソン方程式, パラメータ化ダーシー流など, 様々な問題に対して有効性を示す。
論文 参考訳(メタデータ) (2025-09-09T12:54:06Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Neural Operators for PDE Backstepping Control of First-Order Hyperbolic PIDE with Recycle and Delay [9.155455179145473]
我々は最近導入されたPDE制御のためのDeepONet演算子学習フレームワークを高度な双曲型クラスに拡張する。
PDEバックステッピング設計は非線形作用素の出力であるゲイン関数を生成する。
この演算子は、DeepONetニューラルネットワークと近似して、任意にきつい精度の程度に近似する。
論文 参考訳(メタデータ) (2023-07-21T08:57:16Z) - Hyena Neural Operator for Partial Differential Equations [9.438207505148947]
ディープラーニングの最近の進歩は、ニューラル演算子の使用を含む偏微分方程式を解くための新しいアプローチをもたらした。
この研究は、多層パーセプトロンによってパラメータ化される長い畳み込みフィルタを使用するHyenaと呼ばれるニューラル演算子を利用する。
この結果から,ハイエナは偏微分方程式解演算器の効率的かつ高精度なモデルとして機能することが示唆された。
論文 参考訳(メタデータ) (2023-06-28T19:45:45Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - KoopmanLab: machine learning for solving complex physics equations [7.815723299913228]
解析解や閉形式を使わずにPDEを学習するための、クープマンニューラルオペレータファミリーの効率的なモジュールであるクープマンLabを提案する。
我々のモジュールは、メッシュに依存しないニューラルネットワークベースのPDEソルバの一種であるクープマンニューラル演算子(KNO)の複数の変種から構成されている。
KNO のコンパクトな変種はモデルサイズが小さい PDE を正確に解くことができるが、KNO の大きな変種は高度に複雑な力学系を予測する上でより競争力がある。
論文 参考訳(メタデータ) (2023-01-03T13:58:39Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Pseudo-Differential Neural Operator: Generalized Fourier Neural Operator
for Learning Solution Operators of Partial Differential Equations [14.43135909469058]
本研究では,FNOにおけるフーリエ積分作用素を解析・一般化するための新しいテキスト型微分積分演算子(PDIO)を提案する。
提案モデルの有効性をDarcyフローとNavier-Stokes方程式を用いて実験的に検証した。
論文 参考訳(メタデータ) (2022-01-28T07:22:32Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - PDE-constrained Models with Neural Network Terms: Optimization and
Global Convergence [0.0]
近年の研究では、ディープラーニングを用いて、科学と工学における偏微分方程式(PDE)モデルを開発した。
ニューラルネットワークを用いた線形楕円型PDEの最適化について厳密に研究する。
ニューラルネットワークは,レイノルズ平均ナヴィエ・ストークス方程式の閉包モデルとして機能する流体力学への応用のために,ニューラルネットワークモデルを訓練する。
論文 参考訳(メタデータ) (2021-05-18T16:04:33Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。