論文の概要: Derivative-Informed Fourier Neural Operator: Universal Approximation and Applications to PDE-Constrained Optimization
- arxiv url: http://arxiv.org/abs/2512.14086v1
- Date: Tue, 16 Dec 2025 04:54:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.591651
- Title: Derivative-Informed Fourier Neural Operator: Universal Approximation and Applications to PDE-Constrained Optimization
- Title(参考訳): 微分インフォームドフーリエニューラル演算子:普遍近似とPDE制約最適化への応用
- Authors: Boyuan Yao, Dingcheng Luo, Lianghao Cao, Nikola Kovachki, Thomas O'Leary-Roseberry, Omar Ghattas,
- Abstract要約: 微分インフォームドフーリエニューラル演算子(DIFNO)の近似理論と効率的な学習法を提案する。
DIFNOは、高忠実度演算子の出力とフレシェ微分サンプルを併用して予測誤差を最小化する。
演算子学習や無限次元PDE制約逆問題の解法において,DIFNOがより優れていることを示す。
- 参考スコア(独自算出の注目度): 0.9236074230806578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present approximation theories and efficient training methods for derivative-informed Fourier neural operators (DIFNOs) with applications to PDE-constrained optimization. A DIFNO is an FNO trained by minimizing its prediction error jointly on output and Fréchet derivative samples of a high-fidelity operator (e.g., a parametric PDE solution operator). As a result, a DIFNO can closely emulate not only the high-fidelity operator's response but also its sensitivities. To motivate the use of DIFNOs instead of conventional FNOs as surrogate models, we show that accurate surrogate-driven PDE-constrained optimization requires accurate surrogate Fréchet derivatives. Then, for continuously differentiable operators, we establish (i) simultaneous universal approximation of FNOs and their Fréchet derivatives on compact sets, and (ii) universal approximation of FNOs in weighted Sobolev spaces with input measures that have unbounded supports. Our theoretical results certify the capability of FNOs for accurate derivative-informed operator learning and accurate solution of PDE-constrained optimization. Furthermore, we develop efficient training schemes using dimension reduction and multi-resolution techniques that significantly reduce memory and computational costs for Fréchet derivative learning. Numerical examples on nonlinear diffusion--reaction, Helmholtz, and Navier--Stokes equations demonstrate that DIFNOs are superior in sample complexity for operator learning and solving infinite-dimensional PDE-constrained inverse problems, achieving high accuracy at low training sample sizes.
- Abstract(参考訳): 微分インフォームドフーリエニューラル演算子(DIFNOs)の近似理論と効率的な訓練法とPDE制約最適化への応用について述べる。
DIFNOは、高忠実度演算子(例えばパラメトリックPDE解演算子)の出力とフレシェ微分サンプルを併用して予測誤差を最小化する訓練されたFNOである。
その結果、DIFNOは高忠実度演算子の応答だけでなく、感度も密にエミュレートできる。
従来のFNOの代わりにDIFNOをサロゲートモデルとして利用するためには、正確なサロゲート駆動型PDE制約最適化が正確なサロゲートフレシェ微分を必要とすることを示す。
そして、連続的な微分可能作用素に対して、我々は確立する。
i)コンパクト集合上のFNOとそのフレシェ微分の同時普遍近似
2) 加重ソボレフ空間におけるFNOの普遍近似と、非有界な支持をもつ入力測度
我々の理論的結果は、微分インフォームド演算子学習のためのFNOの能力とPDE制約最適化の正確な解を証明している。
さらに,Fréchet微分学習におけるメモリと計算コストを大幅に削減する次元削減と多分解能技術を用いた効率的な学習手法を開発した。
非線形拡散-反応、ヘルムホルツ、ナヴィエ-ストークス方程式の数値的な例は、DIFNOsが演算子学習や無限次元PDE制約された逆問題の解法に優れていることを証明し、低トレーニングサンプルサイズで高い精度を達成する。
関連論文リスト
- Flow-matching Operators for Residual-Augmented Probabilistic Learning of Partial Differential Equations [0.5729426778193397]
無限次元関数空間におけるフローマッチングを定式化し、確率的輸送を学習する。
本研究では,フローマッチングベクトル場に対する特徴量線形変調に基づく条件付きニューラル演算子アーキテクチャを開発する。
提案手法は,解演算子を様々な解像度と忠実度で正確に学習できることを示す。
論文 参考訳(メタデータ) (2025-12-14T16:06:10Z) - Physics-informed low-rank neural operators with application to parametric elliptic PDEs [0.0]
点クラウドデータ上で偏微分方程式(PDE)の解演算子を近似するニューラルネットワークフレームワークであるPILNOを提案する。
PILNOは、低ランクカーネル近似とエンコーダ・デコーダアーキテクチャを組み合わせることで、高速で連続的なワンショットの予測を可能にし、特定の離散化とは無関係である。
本稿では, 関数フィッティング, ポアソン方程式, 可変係数のスクリーニングポアソン方程式, パラメータ化ダーシー流など, 様々な問題に対して有効性を示す。
論文 参考訳(メタデータ) (2025-09-09T12:54:06Z) - Dimension reduction for derivative-informed operator learning: An analysis of approximation errors [3.7051887945349518]
ニューラルネットワークによる無限次元分離可能なヒルベルト空間間の非線形作用素の微分インフォームド学習について検討する。
無限次元ガウス入力測度のソボレフノルムにおけるニューラル演算子の近似誤差を解析する。
論文 参考訳(メタデータ) (2025-04-11T17:56:52Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - FC-PINO: High Precision Physics-Informed Neural Operators via Fourier Continuation [60.706803227003995]
FC-PINO(Fourier-Continuation-based PINO)アーキテクチャを導入し、PINOの精度と効率を非周期的および非滑らかなPDEに拡張する。
標準的なPINOは、非周期的および非滑らかなPDEを高い精度で、挑戦的なベンチマークで解くのに苦労していることを実証する。
対照的に、提案されたFC-PINOは、正確で堅牢でスケーラブルなソリューションを提供し、PINOの代替案よりも大幅に優れている。
論文 参考訳(メタデータ) (2022-11-29T06:37:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - On the Estimation of Derivatives Using Plug-in Kernel Ridge Regression
Estimators [4.392844455327199]
非パラメトリック回帰における単純なプラグインカーネルリッジ回帰(KRR)推定器を提案する。
我々は,提案した推定器の挙動を統一的に研究するために,非漸近解析を行う。
提案した推定器は、導関数の任意の順序に対するチューニングパラメータを同じ選択で最適収束率を達成する。
論文 参考訳(メタデータ) (2020-06-02T02:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。