論文の概要: The Nonlocal Neural Operator: Universal Approximation
- arxiv url: http://arxiv.org/abs/2304.13221v1
- Date: Wed, 26 Apr 2023 01:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 15:57:26.308204
- Title: The Nonlocal Neural Operator: Universal Approximation
- Title(参考訳): 非局所ニューラル演算子:普遍近似
- Authors: Samuel Lanthaler, Zongyi Li, Andrew M. Stuart
- Abstract要約: 本稿では,非局所的ニューラル演算子 (NNO) と呼ばれる演算子近似器を新たに導入し,任意のジオメトリ上で定義された関数間の演算子近似を可能にする。
非局所性の役割と非線形性との相互作用に新たな光を当て、非局所性に関するより体系的な探索の道を開く。
- 参考スコア(独自算出の注目度): 9.28489418323604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operator architectures approximate operators between
infinite-dimensional Banach spaces of functions. They are gaining increased
attention in computational science and engineering, due to their potential both
to accelerate traditional numerical methods and to enable data-driven
discovery. A popular variant of neural operators is the Fourier neural operator
(FNO). Previous analysis proving universal operator approximation theorems for
FNOs resorts to use of an unbounded number of Fourier modes and limits the
basic form of the method to problems with periodic geometry. Prior work relies
on intuition from traditional numerical methods, and interprets the FNO as a
nonstandard and highly nonlinear spectral method. The present work challenges
this point of view in two ways: (i) the work introduces a new broad class of
operator approximators, termed nonlocal neural operators (NNOs), which allow
for operator approximation between functions defined on arbitrary geometries,
and includes the FNO as a special case; and (ii) analysis of the NNOs shows
that, provided this architecture includes computation of a spatial average
(corresponding to retaining only a single Fourier mode in the special case of
the FNO) it benefits from universal approximation. It is demonstrated that this
theoretical result unifies the analysis of a wide range of neural operator
architectures. Furthermore, it sheds new light on the role of nonlocality, and
its interaction with nonlinearity, thereby paving the way for a more systematic
exploration of nonlocality, both through the development of new operator
learning architectures and the analysis of existing and new architectures.
- Abstract(参考訳): ニューラルネットワークアーキテクチャ 関数の無限次元バナッハ空間間の近似作用素。
計算科学と工学の分野では、従来の数値法を加速し、データ駆動的な発見を可能にする可能性から注目を集めている。
ニューラル演算子の一般的な変種はフーリエニューラル演算子(FNO)である。
FNOsの普遍作用素近似定理を証明する以前の分析では、フーリエモードの非有界な数を使い、この手法の基本形を周期幾何学の問題に限定している。
以前の研究は従来の数値法からの直観に依存しており、FNOを非標準かつ高非線形スペクトル法として解釈している。
現在の作業は、この視点に2つの方法で挑戦する。
i) 任意のジオメトリ上で定義された関数間の演算子近似を可能にする演算子近似(NNO)と呼ばれる演算子近似器を新たに導入し、特殊なケースとしてFNOを含む。
(II) NNO の解析は、このアーキテクチャが空間平均(FNO の特別な場合において単一のフーリエモードのみを保持する)の計算を含むと、普遍近似の恩恵を受けることを示している。
この理論的結果は、幅広い神経オペレーターアーキテクチャの解析を統一することを示した。
さらに、非局所性の役割と非局所性との相互作用に新たな光を当て、新しい演算子学習アーキテクチャの開発と既存および新規アーキテクチャの分析の両方を通じて、非局所性をより体系的に探求する道を開く。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Operator Learning: Algorithms and Analysis [8.305111048568737]
オペレータ学習(Operator learning)は、機械学習から、関数のバナッハ空間間の近似演算子へのアイデアの適用を指す。
このレビューは、有限次元ユークリッド空間上で定義される関数の近似におけるディープニューラルネットワークの成功に基づいて構築されたニューラル演算子に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-24T04:40:27Z) - The Parametric Complexity of Operator Learning [6.800286371280922]
「本論は、Cr$-またはLipschitz-regularityのみによって特徴づけられる作用素の一般クラスに対して、演算子学習がパラメトリック複雑性の呪いに苦しむことを証明することを目的としている。」
この論文の第二の貢献は、ハミルトン・ヤコビ方程式で定義される解作用素に対して、この一般的な呪いが克服可能であることを証明することである。
HJ-Netと呼ばれる新しいニューラル演算子アーキテクチャが導入され、基礎となるハミルトン系の特性情報を明示的に考慮している。
論文 参考訳(メタデータ) (2023-06-28T05:02:03Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。