論文の概要: Operator Learning: Algorithms and Analysis
- arxiv url: http://arxiv.org/abs/2402.15715v1
- Date: Sat, 24 Feb 2024 04:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 17:21:58.159923
- Title: Operator Learning: Algorithms and Analysis
- Title(参考訳): オペレータ学習:アルゴリズムと分析
- Authors: Nikola B. Kovachki and Samuel Lanthaler and Andrew M. Stuart
- Abstract要約: オペレータ学習(Operator learning)は、機械学習から、関数のバナッハ空間間の近似演算子へのアイデアの適用を指す。
このレビューは、有限次元ユークリッド空間上で定義される関数の近似におけるディープニューラルネットワークの成功に基づいて構築されたニューラル演算子に焦点を当てる。
- 参考スコア(独自算出の注目度): 8.305111048568737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operator learning refers to the application of ideas from machine learning to
approximate (typically nonlinear) operators mapping between Banach spaces of
functions. Such operators often arise from physical models expressed in terms
of partial differential equations (PDEs). In this context, such approximate
operators hold great potential as efficient surrogate models to complement
traditional numerical methods in many-query tasks. Being data-driven, they also
enable model discovery when a mathematical description in terms of a PDE is not
available. This review focuses primarily on neural operators, built on the
success of deep neural networks in the approximation of functions defined on
finite dimensional Euclidean spaces. Empirically, neural operators have shown
success in a variety of applications, but our theoretical understanding remains
incomplete. This review article summarizes recent progress and the current
state of our theoretical understanding of neural operators, focusing on an
approximation theoretic point of view.
- Abstract(参考訳): オペレータラーニング(Operator learning)とは、機械学習から、バナッハ空間間の写像を近似する(典型的には非線形)演算子へのアイデアの適用を指す。
そのような作用素は、しばしば偏微分方程式(PDE)で表される物理モデルから生じる。
この文脈では、そのような近似作用素は、多くのクエリータスクにおいて伝統的な数値法を補完する効率的な代理モデルとして大きな可能性を秘めている。
データ駆動型であるため、PDEの数学的記述が利用できない場合にもモデル発見が可能である。
本論は,有限次元ユークリッド空間上で定義される関数の近似におけるディープニューラルネットワークの成功を基盤としたニューラル演算子に注目した。
経験的に、ニューラルネットワークは様々なアプリケーションで成功していますが、理論的な理解は未完成です。
本稿では,ニューラルネットワークの理論的理解の最近の進歩と現状を概説し,近似理論の観点から考察する。
関連論文リスト
- Neural Operators with Localized Integral and Differential Kernels [81.66974615188359]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - The Parametric Complexity of Operator Learning [6.800286371280922]
「本論は、Cr$-またはLipschitz-regularityのみによって特徴づけられる作用素の一般クラスに対して、演算子学習がパラメトリック複雑性の呪いに苦しむことを証明することを目的としている。」
この論文の第二の貢献は、ハミルトン・ヤコビ方程式で定義される解作用素に対して、この一般的な呪いが克服可能であることを証明することである。
HJ-Netと呼ばれる新しいニューラル演算子アーキテクチャが導入され、基礎となるハミルトン系の特性情報を明示的に考慮している。
論文 参考訳(メタデータ) (2023-06-28T05:02:03Z) - Representation Equivalent Neural Operators: a Framework for Alias-free
Operator Learning [11.11883703395469]
この研究は、Representation equivalent Neural Operators (ReNO) フレームワークによるニューラル演算子に対する新たな取り組みを提供する。
中心となるのは演算子エイリアスの概念であり、これは神経演算子とその離散表現の不整合を測定する。
我々の研究結果は、異なる離散化やグリッドを扱う際にエイリアシングがエラーを発生させ、重要な連続構造が失われることについて詳述している。
論文 参考訳(メタデータ) (2023-05-31T14:45:34Z) - The Nonlocal Neural Operator: Universal Approximation [9.28489418323604]
本稿では,非局所的ニューラル演算子 (NNO) と呼ばれる演算子近似器を新たに導入し,任意のジオメトリ上で定義された関数間の演算子近似を可能にする。
非局所性の役割と非線形性との相互作用に新たな光を当て、非局所性に関するより体系的な探索の道を開く。
論文 参考訳(メタデータ) (2023-04-26T01:03:11Z) - Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs [34.179984253109346]
ニューラル作用素の'hallow'(線形)バージョンを数学的に詳細に定式化する。
次に、ベイズ深層学習の近似手法を用いて、この解析処理を一般のディープニューラル演算子に拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
論文 参考訳(メタデータ) (2022-08-02T16:10:27Z) - Neural Operator: Learning Maps Between Function Spaces [57.90284928158383]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。