論文の概要: Solving Roughly Forced Nonlinear PDEs via Misspecified Kernel Methods and Neural Networks
- arxiv url: http://arxiv.org/abs/2501.17110v1
- Date: Tue, 28 Jan 2025 17:58:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:40:00.901077
- Title: Solving Roughly Forced Nonlinear PDEs via Misspecified Kernel Methods and Neural Networks
- Title(参考訳): 不特定カーネル法とニューラルネットワークによる粗強制非線形PDEの解法
- Authors: Matthieu Darcy, Edoardo Calvello, Ricardo Baptista, Houman Owhadi, Andrew M. Stuart, Xianjin Yang,
- Abstract要約: 非線形偏微分方程式 (PDE) の解を数値的に近似するためにガウス過程 (GP) やニューラルネットワーク (NN) を用いる。
本稿では,GPカーネルのオーバースムース化による収束保証を保ちながら,大まかに強制された非線形PDEを扱う手法の一般化を提案する。
これは、PDE制約上の経験的$L2$-lossを経験的負ソボレフノルムに置き換えることと同値である。
- 参考スコア(独自算出の注目度): 3.1895609521267563
- License:
- Abstract: We consider the use of Gaussian Processes (GPs) or Neural Networks (NNs) to numerically approximate the solutions to nonlinear partial differential equations (PDEs) with rough forcing or source terms, which commonly arise as pathwise solutions to stochastic PDEs. Kernel methods have recently been generalized to solve nonlinear PDEs by approximating their solutions as the maximum a posteriori estimator of GPs that are conditioned to satisfy the PDE at a finite set of collocation points. The convergence and error guarantees of these methods, however, rely on the PDE being defined in a classical sense and its solution possessing sufficient regularity to belong to the associated reproducing kernel Hilbert space. We propose a generalization of these methods to handle roughly forced nonlinear PDEs while preserving convergence guarantees with an oversmoothing GP kernel that is misspecified relative to the true solution's regularity. This is achieved by conditioning a regular GP to satisfy the PDE with a modified source term in a weak sense (when integrated against a finite number of test functions). This is equivalent to replacing the empirical $L^2$-loss on the PDE constraint by an empirical negative-Sobolev norm. We further show that this loss function can be used to extend physics-informed neural networks (PINNs) to stochastic equations, thereby resulting in a new NN-based variant termed Negative Sobolev Norm-PINN (NeS-PINN).
- Abstract(参考訳): 我々はガウス過程 (GP) やニューラルネットワーク (NN) を用いて、非線形偏微分方程式 (PDE) の解を粗い強制あるいはソース項で数値的に近似する。
カーネル法は、最近一般化され、それらの解を有限のコロケーション点の集合でPDEを満たすように条件付けられたGPの最大アフター推定子として近似することで非線形PDEを解く。
しかし、これらの方法の収束と誤差の保証は、古典的な意味で定義されるPDEと、関連する再生カーネルヒルベルト空間に属するのに十分な正則性を持つ解に依存している。
本稿では, ほぼ強制された非線形PDEを扱うために, 真の解の正則性に対して不特定な過度なGPカーネルで収束保証を保ちながら, これらの手法の一般化を提案する。
これは、(有限個のテスト関数に対して統合された場合)弱い意味で、修正されたソース項でPDEを満たすように正規GPを条件付けることで達成される。
これは、PDE制約上の経験的$L^2$-lossを経験的負ソボレフノルムで置き換えることと同値である。
さらに,この損失関数を用いて,物理インフォームドニューラルネットワーク(PINN)を確率方程式に拡張することにより,ニューラルネットに基づくNorm-PINN (Negative Sobolev Norm-PINN) と呼ばれる新しい変種が得られることを示す。
関連論文リスト
- Gaussian Process Priors for Boundary Value Problems of Linear Partial Differential Equations [3.524869467682149]
偏微分方程式(PDE)の解法は計算科学の基本的な課題である。
近年、PDEに取り組むために、ニューラル演算子と物理インフォームドニューラルネットワーク(PINN)が導入されている。
本稿では, 線形PDEの一般システムと定数係数, 線形境界条件の両方を満たすGP事前の構成手法を提案する。
論文 参考訳(メタデータ) (2024-11-25T18:48:15Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Error Analysis of Kernel/GP Methods for Nonlinear and Parametric PDEs [16.089904161628258]
非線形およびおそらくパラメトリックなPDEの解に対する事前ソボレフ空間誤差推定を導入する。
この証明は、カーネル補間子に対するソボレフ標準誤差推定について記述する。
誤差推定は、PDEの解空間が十分に滑らかであれば、次元差収束率を示す。
論文 参考訳(メタデータ) (2023-05-08T18:00:33Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - DiffNet: Neural Field Solutions of Parametric Partial Differential
Equations [30.80582606420882]
我々は、ニューラルネットワークをトレーニングし、PDEに対するソリューションのフィールド予測を生成するメッシュベースのアプローチを検討する。
パラメトリック楕円PDE上の有限要素法(FEM)に基づく重み付きガレルキン損失関数を用いる。
PDE に対する有限要素解に展開されたメッシュ収束解析に類似した,理論的に検証し,実験により考察する。
論文 参考訳(メタデータ) (2021-10-04T17:59:18Z) - Semi-Implicit Neural Solver for Time-dependent Partial Differential
Equations [4.246966726709308]
本稿では,PDEの任意のクラスに対して,データ駆動方式で最適な反復スキームを学習するためのニューラルソルバを提案する。
従来の反復解法に類似したニューラルソルバの正当性と収束性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-09-03T12:03:10Z) - Solving and Learning Nonlinear PDEs with Gaussian Processes [11.09729362243947]
非線形偏微分方程式を解くための単純で厳密で統一された枠組みを提案する。
提案手法は、コロケーションカーネル法を非線形PDEとIPに自然に一般化する。
IP では,PDE におけるパラメータの同定と解の数値近似を反復的に行う手法が提案されているが,アルゴリズムは両手法を同時に扱う。
論文 参考訳(メタデータ) (2021-03-24T03:16:08Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。