論文の概要: Neural Operator: Learning Maps Between Function Spaces
- arxiv url: http://arxiv.org/abs/2108.08481v5
- Date: Fri, 7 Apr 2023 17:30:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 15:51:05.167698
- Title: Neural Operator: Learning Maps Between Function Spaces
- Title(参考訳): Neural Operator: 関数空間間のマップ学習
- Authors: Nikola Kovachki, Zongyi Li, Burigede Liu, Kamyar Azizzadenesheli,
Kaushik Bhattacharya, Andrew Stuart, Anima Anandkumar
- Abstract要約: 本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
- 参考スコア(独自算出の注目度): 57.90284928158383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The classical development of neural networks has primarily focused on
learning mappings between finite dimensional Euclidean spaces or finite sets.
We propose a generalization of neural networks to learn operators, termed
neural operators, that map between infinite dimensional function spaces. We
formulate the neural operator as a composition of linear integral operators and
nonlinear activation functions. We prove a universal approximation theorem for
our proposed neural operator, showing that it can approximate any given
nonlinear continuous operator. The proposed neural operators are also
discretization-invariant, i.e., they share the same model parameters among
different discretization of the underlying function spaces. Furthermore, we
introduce four classes of efficient parameterization, viz., graph neural
operators, multi-pole graph neural operators, low-rank neural operators, and
Fourier neural operators. An important application for neural operators is
learning surrogate maps for the solution operators of partial differential
equations (PDEs). We consider standard PDEs such as the Burgers, Darcy
subsurface flow, and the Navier-Stokes equations, and show that the proposed
neural operators have superior performance compared to existing machine
learning based methodologies, while being several orders of magnitude faster
than conventional PDE solvers.
- Abstract(参考訳): 古典的なニューラルネットワークの発展は、主に有限次元ユークリッド空間または有限集合間の写像の学習に焦点を当てている。
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
線形積分演算子と非線形活性化関数の合成としてニューラルネットワークを定式化する。
提案するニューラル作用素に対する普遍近似定理を証明し、任意の非線形連続作用素を近似できることを示す。
提案されたニューラル演算子は離散化不変であり、すなわち、基底関数空間の異なる離散化の間で同じモデルパラメータを共有する。
さらに,効率の高いパラメータ化,viz.,グラフニューラルネットワーク,多極グラフニューラルネットワーク,低ランクニューラルネットワーク,フーリエニューラルネットワークの4つのクラスを導入する。
ニューラル作用素の重要な応用は、偏微分方程式(PDE)の解作用素に対する代理写像の学習である。
本稿では,バーガース,ダーシー地下流れ,ナビエ・ストークス方程式などの標準的なPDEを考察し,従来のPDE解法よりも数桁高速でありながら,提案したニューラル演算子が既存の機械学習ベースの手法よりも優れた性能を有することを示す。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Operator Learning: Algorithms and Analysis [8.305111048568737]
オペレータ学習(Operator learning)は、機械学習から、関数のバナッハ空間間の近似演算子へのアイデアの適用を指す。
このレビューは、有限次元ユークリッド空間上で定義される関数の近似におけるディープニューラルネットワークの成功に基づいて構築されたニューラル演算子に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-24T04:40:27Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - MIONet: Learning multiple-input operators via tensor product [2.5426761219054312]
バナッハ空間の積上で定義された複数入力演算子に対するニューラルネットワークによる演算子の回帰について検討する。
我々の理論と低ランク近似に基づいて、我々は新しいニューラル演算子、MIONetを提案し、複数入力演算子を学習する。
論文 参考訳(メタデータ) (2022-02-12T20:37:04Z) - Pseudo-Differential Neural Operator: Generalized Fourier Neural Operator
for Learning Solution Operators of Partial Differential Equations [14.43135909469058]
本研究では,FNOにおけるフーリエ積分作用素を解析・一般化するための新しいテキスト型微分積分演算子(PDIO)を提案する。
提案モデルの有効性をDarcyフローとNavier-Stokes方程式を用いて実験的に検証した。
論文 参考訳(メタデータ) (2022-01-28T07:22:32Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。