論文の概要: Deep Operator Learning Lessens the Curse of Dimensionality for PDEs
- arxiv url: http://arxiv.org/abs/2301.12227v1
- Date: Sat, 28 Jan 2023 15:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 18:20:19.453806
- Title: Deep Operator Learning Lessens the Curse of Dimensionality for PDEs
- Title(参考訳): 深層演算子学習によるPDEの次元曲線の学習
- Authors: Ke Chen, Chunmei Wang, and Haizhao Yang
- Abstract要約: 深層演算子学習はPDEの離散化分解能に緩やかに依存していることを示す。
この結果は楕円型方程式、放物型方程式、バーガース方程式など様々なPDEに適用する。
- 参考スコア(独自算出の注目度): 5.450536740249849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have seen tremendous success in many fields and
their developments in PDE-related problems are rapidly growing. This paper
provides an estimate for the generalization error of learning Lipschitz
operators over Banach spaces using DNNs with applications to various PDE
solution operators. The goal is to specify DNN width, depth, and the number of
training samples needed to guarantee a certain testing error. Under mild
assumptions on data distributions or operator structures, our analysis shows
that deep operator learning can have a relaxed dependence on the discretization
resolution of PDEs and, hence, lessen the curse of dimensionality in many
PDE-related problems. We apply our results to various PDEs, including elliptic
equations, parabolic equations, and Burgers equations.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くの分野で大きな成功を収めており、PDE関連の問題の開発は急速に増加している。
本稿では, DNN を用いたバナッハ空間上のリプシッツ演算子学習の一般化誤差と様々な PDE 解演算子への応用を推定する。
目標は、特定のテストエラーを保証するために必要なDNN幅、深さ、トレーニングサンプルの数を指定することだ。
データ分布や演算子構造を軽度に仮定すると、深層演算子学習はPDEの離散化分解に緩やかに依存し、従って多くのPDE関連問題における次元性の呪いを減らすことができる。
この結果は楕円型方程式、放物型方程式、バーガース方程式など様々なPDEに適用する。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - DeepONet for Solving PDEs: Generalization Analysis in Sobolev Training [2.44755919161855]
偏微分方程式(PDE)の解法における演算子学習,特にDeepONetの適用について検討する。
本稿では,ソボレフトレーニングにおけるDeepONetの性能に着目し,ディープブランチとトランクネットワークの近似能力とソボレフノルムの一般化誤差の2つの重要な問題に対処する。
論文 参考訳(メタデータ) (2024-10-06T03:43:56Z) - Physics-informed Discretization-independent Deep Compositional Operator Network [1.2430809884830318]
我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
論文 参考訳(メタデータ) (2024-04-21T12:41:30Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - A physics-informed neural network framework for modeling obstacle-related equations [3.687313790402688]
物理インフォームドニューラルネットワーク(PINN)は、スパースデータとノイズデータに基づいて偏微分方程式を解く魅力的なツールである。
ここでは、PINNを拡張して障害物関連PDEを解くことで、計算上の大きな課題を提示します。
提案したPINNの性能は、正規および不規則な障害物を受ける線形および非線形PDEの複数のシナリオで実証される。
論文 参考訳(メタデータ) (2023-04-07T09:22:28Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Error analysis for physics informed neural networks (PINNs)
approximating Kolmogorov PDEs [0.0]
PINNによる大規模な放物型PDEの解の近似における誤差の厳密な境界を導出する。
PINN残差(一般化誤差)を所望の程度小さくできるニューラルネットワークを構築する。
これらの結果から,Kolmogorov PDEの近似におけるPINNの総合的誤差解析が可能となった。
論文 参考訳(メタデータ) (2021-06-28T08:37:56Z) - Adversarial Multi-task Learning Enhanced Physics-informed Neural
Networks for Solving Partial Differential Equations [9.823102211212582]
本稿では,多タスク学習手法,不確実性強調損失,勾配手術を学習pdeソリューションの文脈で活用する新しいアプローチを提案する。
実験では,提案手法が有効であることが判明し,従来手法と比較して未発見のデータポイントの誤差を低減できた。
論文 参考訳(メタデータ) (2021-04-29T13:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。