論文の概要: Optimal deep learning of holomorphic operators between Banach spaces
- arxiv url: http://arxiv.org/abs/2406.13928v2
- Date: Wed, 30 Oct 2024 15:34:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 13:57:05.675012
- Title: Optimal deep learning of holomorphic operators between Banach spaces
- Title(参考訳): バナッハ空間間の正則作用素の最適深度学習
- Authors: Ben Adcock, Nick Dexter, Sebastian Moraga,
- Abstract要約: 我々はバナッハ空間間の学習作用素の問題に取り組むが、これはヒルベルト空間のみを考える過去の研究の大多数とは対照的である。
任意の近似エンコーダとデコーダを標準フィードフォワードディープニューラルネットワーク(DNN)アーキテクチャと組み合わせる。
本稿では,この問題に対してDLが最適であることを示す。
- 参考スコア(独自算出の注目度): 0.6554326244334866
- License:
- Abstract: Operator learning problems arise in many key areas of scientific computing where Partial Differential Equations (PDEs) are used to model physical systems. In such scenarios, the operators map between Banach or Hilbert spaces. In this work, we tackle the problem of learning operators between Banach spaces, in contrast to the vast majority of past works considering only Hilbert spaces. We focus on learning holomorphic operators - an important class of problems with many applications. We combine arbitrary approximate encoders and decoders with standard feedforward Deep Neural Network (DNN) architectures - specifically, those with constant width exceeding the depth - under standard $\ell^2$-loss minimization. We first identify a family of DNNs such that the resulting Deep Learning (DL) procedure achieves optimal generalization bounds for such operators. For standard fully-connected architectures, we then show that there are uncountably many minimizers of the training problem that yield equivalent optimal performance. The DNN architectures we consider are `problem agnostic', with width and depth only depending on the amount of training data $m$ and not on regularity assumptions of the target operator. Next, we show that DL is optimal for this problem: no recovery procedure can surpass these generalization bounds up to log terms. Finally, we present numerical results demonstrating the practical performance on challenging problems including the parametric diffusion, Navier-Stokes-Brinkman and Boussinesq PDEs.
- Abstract(参考訳): 演算子学習問題は、物理系をモデル化するために部分微分方程式(PDE)が用いられる科学計算の多くの重要な領域で発生する。
そのような場合、作用素はバナッハ空間とヒルベルト空間の間を写像する。
本研究では,バナッハ空間間の学習作用素の問題を,ヒルベルト空間のみを考慮した過去の研究の大半とは対照的に解決する。
我々は正則作用素の学習に焦点をあてる - 多くのアプリケーションにおいて重要な問題のクラスである。
任意の近似エンコーダとデコーダを標準フィードフォワードディープニューラルネットワーク(DNN)アーキテクチャ(具体的には、深さを超える一定の幅を持つもの)と組み合わせ、標準$\ell^2$-loss最小化する。
まずDNNの族を同定し、結果のディープラーニング(DL)手順がそのような演算子に対して最適な一般化バウンダリを実現する。
標準の完全連結アーキテクチャでは、等価な最適性能をもたらすトレーニング問題の最小化要因が無数にあることを示す。
私たちが考えるDNNアーキテクチャは'problem agnostic'であり、幅と深さはトレーニングデータ$m$の量に依存し、ターゲット演算子の正規性仮定に依存しない。
次に、この問題に対してDLが最適であることを示す。
最後に,パラメトリック拡散,Navier-Stokes-Brinkman,Boussinesq PDEsなどの問題に対する実用性能を示す数値的な結果を示す。
関連論文リスト
- Learning Partial Differential Equations with Deep Parallel Neural Operators [11.121415128908566]
新たな手法は、出力間のマッピングを近似する手段として演算子を学ぶことである。
物理科学の実践的な問題では、偏微分方程式の数値解は複雑である。
偏微分方程式の解法を効率よく正確に解くために,DPNO(Deep parallel operator model)を提案する。
論文 参考訳(メタデータ) (2024-09-30T06:04:04Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - BENO: Boundary-embedded Neural Operators for Elliptic PDEs [15.18712698704595]
楕円型PDEの解法として境界埋め込み型ニューラル演算子(BENO)を導入する。
BENOは複素測地と不均一境界値を楕円型PDEの解に埋め込む。
我々のモデルは最先端のニューラル演算子と強いベースラインを平均60.96%上回る。
論文 参考訳(メタデータ) (2024-01-17T16:47:39Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Learning Only On Boundaries: a Physics-Informed Neural operator for
Solving Parametric Partial Differential Equations in Complex Geometries [10.250994619846416]
ラベル付きデータなしでパラメータ化境界値問題を解決する物理インフォームド・ニューラル演算子法を提案する。
数値実験により,パラメータ化複素測地と非有界問題の有効性が示された。
論文 参考訳(メタデータ) (2023-08-24T17:29:57Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Deep Operator Learning Lessens the Curse of Dimensionality for PDEs [11.181533339111853]
本稿では, DNN を用いたバナッハ空間上のリプシッツ演算子学習の一般化誤差と様々な PDE 解演算子への応用を推定する。
データ分布や演算子構造を軽度に仮定すると、深層演算子学習はPDEの離散化分解能に緩やかに依存する可能性がある。
論文 参考訳(メタデータ) (2023-01-28T15:35:52Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Deep Neural Networks Are Effective At Learning High-Dimensional
Hilbert-Valued Functions From Limited Data [6.098254376499899]
ヒルベルト値を持つ近似関数、すなわち、近似関数に焦点を当てる。
分離可能だが典型的には無限次元のヒルベルト空間で値を取る。
隠れ異方性を持つ正則関数に対するDNNトレーニングにおける新しい結果を示す。
ヒルベルト評価関数を DNN で学習する手法は,DNN と同様に機能するが,現在の最良クラススキームに匹敵するものではないことを示す。
論文 参考訳(メタデータ) (2020-12-11T02:02:14Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。