論文の概要: Physics-Informed Neural Operators
- arxiv url: http://arxiv.org/abs/2207.05748v1
- Date: Fri, 8 Jul 2022 12:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-17 16:18:52.368309
- Title: Physics-Informed Neural Operators
- Title(参考訳): 物理インフォームドニューラル演算子
- Authors: Somdatta Goswami, Aniruddha Bora, Yue Yu, and George Em Karniadakis
- Abstract要約: ニューラルネットワークは一般非線形作用素を近似することができ、例えば、対流拡散反応偏微分方程式における数学的作用素の組合せによって明示的に表される。
最初の神経オペレータは、厳密な近似理論に基づいて2019年に提案されたDeepオペレータネットワーク(DeepONet)である。
ブラックボックスシステムでは、ニューラル演算子のトレーニングはデータ駆動であるが、支配方程式が分かっていれば、物理インフォームド・ニューラル演算子を開発するトレーニング中に損失関数に組み込むことができる。
- 参考スコア(独自算出の注目度): 3.9181541460605116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard neural networks can approximate general nonlinear operators,
represented either explicitly by a combination of mathematical operators, e.g.,
in an advection-diffusion-reaction partial differential equation, or simply as
a black box, e.g., a system-of-systems. The first neural operator was the Deep
Operator Network (DeepONet), proposed in 2019 based on rigorous approximation
theory. Since then, a few other less general operators have been published,
e.g., based on graph neural networks or Fourier transforms. For black box
systems, training of neural operators is data-driven only but if the governing
equations are known they can be incorporated into the loss function during
training to develop physics-informed neural operators. Neural operators can be
used as surrogates in design problems, uncertainty quantification, autonomous
systems, and almost in any application requiring real-time inference. Moreover,
independently pre-trained DeepONets can be used as components of a complex
multi-physics system by coupling them together with relatively light training.
Here, we present a review of DeepONet, the Fourier neural operator, and the
graph neural operator, as well as appropriate extensions with feature
expansions, and highlight their usefulness in diverse applications in
computational mechanics, including porous media, fluid mechanics, and solid
mechanics.
- Abstract(参考訳): 標準ニューラルネットワークは一般的な非線形作用素を近似することができ、例えば、アドベクション・ディフフュージョン・リアクション偏微分方程式(advection-diffusion-reaction partial differential equation)や、単にブラックボックス、例えばシステム・オブ・システム(system-of-systems)として明示的に表現することができる。
最初の神経オペレータは、厳密な近似理論に基づいて2019年に提案されたDeepオペレータネットワーク(DeepONet)である。
それ以来、グラフニューラルネットワークやフーリエ変換に基づいて、いくつかのより一般的な演算子が公開された。
ブラックボックスシステムでは、ニューラル演算子のトレーニングはデータ駆動であるが、支配方程式が分かっていれば、物理インフォームド・ニューラル演算子のトレーニング中に損失関数に組み込むことができる。
ニューラル演算子は、設計問題、不確実性定量化、自律システム、およびほぼリアルタイム推論を必要とするアプリケーションにおいて、サロゲートとして使用できる。
さらに、独立に訓練されたDeepONetsは、比較的軽い訓練と組み合わせることで、複雑な多物理系の構成要素として使用できる。
本稿では,deeponet,フーリエニューラル演算子,グラフニューラル演算子のレビューと,機能拡張を用いた適切な拡張について述べるとともに,多孔質媒質,流体力学,固体力学など,計算力学におけるその有用性について述べる。
関連論文リスト
- Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Scattering with Neural Operators [0.0]
機械学習の最近の進歩は、関数空間間のマップを近似する特定のニューラルネットワークアーキテクチャの能力を確立している。
基礎物理学における応用の可能性から、量子力学における散乱過程の応用について検討する。
論文 参考訳(メタデータ) (2023-08-28T18:00:00Z) - In-Context Operator Learning with Data Prompts for Differential Equation
Problems [12.61842281581773]
本稿では、新しいニューラルネットワークベースのアプローチ、すなわちIn-Context Operator Networks (ICON)を紹介する。
ICONは、トリガーされたデータから演算子を同時に学習し、推論段階で新しい質問に適用する。
数値計算の結果,多変量微分方程式問題に対する数発の演算子学習器としてのニューラルネットワークの機能を示す。
論文 参考訳(メタデータ) (2023-04-17T05:22:26Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - MIONet: Learning multiple-input operators via tensor product [2.5426761219054312]
バナッハ空間の積上で定義された複数入力演算子に対するニューラルネットワークによる演算子の回帰について検討する。
我々の理論と低ランク近似に基づいて、我々は新しいニューラル演算子、MIONetを提案し、複数入力演算子を学習する。
論文 参考訳(メタデータ) (2022-02-12T20:37:04Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。