論文の概要: MIONet: Learning multiple-input operators via tensor product
- arxiv url: http://arxiv.org/abs/2202.06137v1
- Date: Sat, 12 Feb 2022 20:37:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:39:52.101443
- Title: MIONet: Learning multiple-input operators via tensor product
- Title(参考訳): MIONet: テンソル積による複数入力演算子学習
- Authors: Pengzhan Jin, Shuai Meng, Lu Lu
- Abstract要約: バナッハ空間の積上で定義された複数入力演算子に対するニューラルネットワークによる演算子の回帰について検討する。
我々の理論と低ランク近似に基づいて、我々は新しいニューラル演算子、MIONetを提案し、複数入力演算子を学習する。
- 参考スコア(独自算出の注目度): 2.5426761219054312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an emerging paradigm in scientific machine learning, neural operators aim
to learn operators, via neural networks, that map between infinite-dimensional
function spaces. Several neural operators have been recently developed.
However, all the existing neural operators are only designed to learn operators
defined on a single Banach space, i.e., the input of the operator is a single
function. Here, for the first time, we study the operator regression via neural
networks for multiple-input operators defined on the product of Banach spaces.
We first prove a universal approximation theorem of continuous multiple-input
operators. We also provide detailed theoretical analysis including the
approximation error, which provides a guidance of the design of the network
architecture. Based on our theory and a low-rank approximation, we propose a
novel neural operator, MIONet, to learn multiple-input operators. MIONet
consists of several branch nets for encoding the input functions and a trunk
net for encoding the domain of the output function. We demonstrate that MIONet
can learn solution operators involving systems governed by ordinary and partial
differential equations. In our computational examples, we also show that we can
endow MIONet with prior knowledge of the underlying system, such as linearity
and periodicity, to further improve the accuracy.
- Abstract(参考訳): 科学機械学習における新たなパラダイムとして、ニューラルネットワークを通じて、無限次元の関数空間をマップするオペレータを学習することを目指している。
いくつかのニューラル作用素が最近開発された。
しかし、既存の全てのニューラル演算子は、単一のバナッハ空間(すなわち、演算子の入力は単一の関数である)で定義される演算子を学ぶためにのみ設計されている。
ここでは,バナッハ空間の積上で定義される多入力作用素に対するニューラルネットワークによる演算子回帰を初めて研究する。
まず、連続多重入力作用素の普遍近似定理を証明する。
また,ネットワークアーキテクチャ設計のガイダンスを提供する近似誤差を含む詳細な理論解析も提供する。
本理論と低ランク近似に基づいて,複数の入力演算子を学習するための新しいニューラル演算子mionetを提案する。
MIONetは入力関数をエンコードするいくつかの分岐ネットと、出力関数のドメインをエンコードするトランクネットで構成されている。
MIONetは常微分方程式と偏微分方程式によって支配されるシステムを含む解作用素を学習できることを実証する。
計算例では、線形性や周期性といった基礎となるシステムの事前知識をmionetに付与することで、精度をさらに向上できることを示した。
関連論文リスト
- Learning Partial Differential Equations with Deep Parallel Neural Operator [11.121415128908566]
新たな手法は、出力間のマッピングを近似する手段として演算子を学ぶことである。
物理科学の実践的な問題では、偏微分方程式の数値解は複雑である。
偏微分方程式の解法を効率よく正確に解くために,DPNO(Deep parallel operator model)を提案する。
論文 参考訳(メタデータ) (2024-09-30T06:04:04Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - In-Context Operator Learning with Data Prompts for Differential Equation
Problems [12.61842281581773]
本稿では、新しいニューラルネットワークベースのアプローチ、すなわちIn-Context Operator Networks (ICON)を紹介する。
ICONは、トリガーされたデータから演算子を同時に学習し、推論段階で新しい質問に適用する。
数値計算の結果,多変量微分方程式問題に対する数発の演算子学習器としてのニューラルネットワークの機能を示す。
論文 参考訳(メタデータ) (2023-04-17T05:22:26Z) - Join-Chain Network: A Logical Reasoning View of the Multi-head Attention
in Transformer [59.73454783958702]
本稿では,多くの結合演算子を連結して出力論理式をモデル化するシンボリック推論アーキテクチャを提案する。
特に,このような結合鎖のアンサンブルが'ツリー構造'の1次論理式であるFOETの広い部分集合を表現できることを実証する。
変圧器における多頭部自己保持モジュールは,確率的述語空間における結合作用素の結合境界を実装する特別なニューラル演算子として理解することができる。
論文 参考訳(メタデータ) (2022-10-06T07:39:58Z) - Physics-Informed Neural Operators [3.9181541460605116]
ニューラルネットワークは一般非線形作用素を近似することができ、例えば、対流拡散反応偏微分方程式における数学的作用素の組合せによって明示的に表される。
最初の神経オペレータは、厳密な近似理論に基づいて2019年に提案されたDeepオペレータネットワーク(DeepONet)である。
ブラックボックスシステムでは、ニューラル演算子のトレーニングはデータ駆動であるが、支配方程式が分かっていれば、物理インフォームド・ニューラル演算子を開発するトレーニング中に損失関数に組み込むことができる。
論文 参考訳(メタデータ) (2022-07-08T12:29:09Z) - Pseudo-Differential Neural Operator: Generalized Fourier Neural Operator
for Learning Solution Operators of Partial Differential Equations [14.43135909469058]
本研究では,FNOにおけるフーリエ積分作用素を解析・一般化するための新しいテキスト型微分積分演算子(PDIO)を提案する。
提案モデルの有効性をDarcyフローとNavier-Stokes方程式を用いて実験的に検証した。
論文 参考訳(メタデータ) (2022-01-28T07:22:32Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Neural Arithmetic Units [84.65228064780744]
ニューラルネットワークは複雑な関数を近似することができるが、実数に対して正確な算術演算を行うのに苦労する。
ニューラルネットワークコンポーネントとして、正確な加算と減算を学習可能なニューラル加算ユニット(NAU)と、ベクトルのサブセットを乗算可能なニューラル乗算ユニット(NMU)がある。
提案したユニットNAUとNMUは、従来のニューラルネットワークユニットと比較して、より一貫して収束し、パラメータを少なくし、より速く学習し、より大きな隠れたサイズに収束し、スパースと意味のある重みを得、負の値と小さな値に外挿することができる。
論文 参考訳(メタデータ) (2020-01-14T19:35:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。