論文の概要: Deep Operator Learning Lessens the Curse of Dimensionality for PDEs
- arxiv url: http://arxiv.org/abs/2301.12227v1
- Date: Sat, 28 Jan 2023 15:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 18:20:19.453806
- Title: Deep Operator Learning Lessens the Curse of Dimensionality for PDEs
- Title(参考訳): 深層演算子学習によるPDEの次元曲線の学習
- Authors: Ke Chen, Chunmei Wang, and Haizhao Yang
- Abstract要約: 深層演算子学習はPDEの離散化分解能に緩やかに依存していることを示す。
この結果は楕円型方程式、放物型方程式、バーガース方程式など様々なPDEに適用する。
- 参考スコア(独自算出の注目度): 5.450536740249849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have seen tremendous success in many fields and
their developments in PDE-related problems are rapidly growing. This paper
provides an estimate for the generalization error of learning Lipschitz
operators over Banach spaces using DNNs with applications to various PDE
solution operators. The goal is to specify DNN width, depth, and the number of
training samples needed to guarantee a certain testing error. Under mild
assumptions on data distributions or operator structures, our analysis shows
that deep operator learning can have a relaxed dependence on the discretization
resolution of PDEs and, hence, lessen the curse of dimensionality in many
PDE-related problems. We apply our results to various PDEs, including elliptic
equations, parabolic equations, and Burgers equations.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くの分野で大きな成功を収めており、PDE関連の問題の開発は急速に増加している。
本稿では, DNN を用いたバナッハ空間上のリプシッツ演算子学習の一般化誤差と様々な PDE 解演算子への応用を推定する。
目標は、特定のテストエラーを保証するために必要なDNN幅、深さ、トレーニングサンプルの数を指定することだ。
データ分布や演算子構造を軽度に仮定すると、深層演算子学習はPDEの離散化分解に緩やかに依存し、従って多くのPDE関連問題における次元性の呪いを減らすことができる。
この結果は楕円型方程式、放物型方程式、バーガース方程式など様々なPDEに適用する。
関連論文リスト
- Data-Efficient Operator Learning via Unsupervised Pretraining and
In-Context Learning [48.51023783276896]
PDE演算子学習のための教師なし事前学習とコンテキスト学習を設計する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - A physics-informed neural network framework for modeling
obstacle-related equations [7.159808388704309]
物理インフォームドニューラルネットワーク(PINN)は、スパースデータとノイズデータに基づいて偏微分方程式を解く魅力的なツールである。
ここでは、PINNを拡張して障害物関連PDEを解くことで、計算上の大きな課題を提示します。
提案したPINNの性能は、正規および不規則な障害物を受ける線形および非線形PDEの複数のシナリオで実証される。
論文 参考訳(メタデータ) (2023-04-07T09:22:28Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Error analysis for physics informed neural networks (PINNs)
approximating Kolmogorov PDEs [0.0]
PINNによる大規模な放物型PDEの解の近似における誤差の厳密な境界を導出する。
PINN残差(一般化誤差)を所望の程度小さくできるニューラルネットワークを構築する。
これらの結果から,Kolmogorov PDEの近似におけるPINNの総合的誤差解析が可能となった。
論文 参考訳(メタデータ) (2021-06-28T08:37:56Z) - Adversarial Multi-task Learning Enhanced Physics-informed Neural
Networks for Solving Partial Differential Equations [9.823102211212582]
本稿では,多タスク学習手法,不確実性強調損失,勾配手術を学習pdeソリューションの文脈で活用する新しいアプローチを提案する。
実験では,提案手法が有効であることが判明し,従来手法と比較して未発見のデータポイントの誤差を低減できた。
論文 参考訳(メタデータ) (2021-04-29T13:17:46Z) - Estimates on the generalization error of Physics Informed Neural
Networks (PINNs) for approximating PDEs [16.758334184623152]
PDEの前方問題の解を近似するPINNの一般化誤差に関する厳密な上限を提供する。
抽象形式論を導入し、基礎となるPDEの安定性特性を利用して一般化誤差の見積を導出する。
論文 参考訳(メタデータ) (2020-06-29T16:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。