論文の概要: LNO: Laplace Neural Operator for Solving Differential Equations
- arxiv url: http://arxiv.org/abs/2303.10528v1
- Date: Sun, 19 Mar 2023 01:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 18:50:26.271224
- Title: LNO: Laplace Neural Operator for Solving Differential Equations
- Title(参考訳): LNO:微分方程式の解法のためのラプラスニューラル演算子
- Authors: Qianying Cao, Somdatta Goswami, George Em Karniadakis
- Abstract要約: 入力空間を分解するためにLaplace変換を利用するLaplace Neural operator (LNO)を導入する。
LNOは入力と出力空間の間の極-残差関係を取り入れ、より高い解釈可能性を実現する。
LNOは、無限次元空間間の関数をマッピングするニューラル演算子を学習するための、有望な新しいアプローチであることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce the Laplace neural operator (LNO), which leverages the Laplace
transform to decompose the input space. Unlike the Fourier Neural Operator
(FNO), LNO can handle non-periodic signals, account for transient responses,
and exhibit exponential convergence. LNO incorporates the pole-residue
relationship between the input and the output space, enabling greater
interpretability and improved generalization ability. Herein, we demonstrate
the superior approximation accuracy of a single Laplace layer in LNO over four
Fourier modules in FNO in approximating the solutions of three ODEs (Duffing
oscillator, driven gravity pendulum, and Lorenz system) and three PDEs
(Euler-Bernoulli beam, diffusion equation, and reaction-diffusion system).
Notably, LNO outperforms FNO in capturing transient responses in undamped
scenarios. For the linear Euler-Bernoulli beam and diffusion equation, LNO's
exact representation of the pole-residue formulation yields significantly
better results than FNO. For the nonlinear reaction-diffusion system, LNO's
errors are smaller than those of FNO, demonstrating the effectiveness of using
system poles and residues as network parameters for operator learning. Overall,
our results suggest that LNO represents a promising new approach for learning
neural operators that map functions between infinite-dimensional spaces.
- Abstract(参考訳): 入力空間を分解するためにLaplace変換を利用するLaplace Neural operator (LNO)を導入する。
フーリエニューラル演算子(FNO)とは異なり、LNOは非周期的な信号を扱うことができ、過渡応答を考慮に入れ、指数収束を示す。
LNOは入力と出力空間の間の極-残差関係を取り入れ、解釈可能性の向上と一般化能力の向上を可能にする。
本稿では,3つのode(ダフィング振動子,駆動重力振子,ロレンツ系)と3つのpdes(オイラー・ベルヌーリビーム,拡散方程式,反応拡散系)の解を近似して,fno内の4つのフーリエ加群上のlno内の1つのラプラス層の優れた近似精度を示す。
特にLNOは、損傷のないシナリオにおける過渡応答のキャプチャにおいてFNOよりも優れています。
線形オイラー・ベルヌーリビームと拡散方程式では、lno の極抵抗公式の正確な表現は fno よりもかなり良い結果が得られる。
非線形反応拡散系では、LNOの誤差はFNOよりも小さく、演算子学習のネットワークパラメータとしてシステム極と残余を用いることの有効性を示す。
全体として、LNOは無限次元空間間の関数をマッピングするニューラル演算子を学習するための、有望な新しいアプローチであることを示唆している。
関連論文リスト
- Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - On the locality of local neural operator in learning fluid dynamics [7.773086303468703]
局所神経演算子(LNO)は、過渡偏微分方程式(PDE)の解法におけるLNOの柔軟性を可能にするコアである
我々はLNOの局所性について,LNOの受容領域と受容範囲を調べた。
本稿では,LNOを適用した多分野のPDEの学習と解法について概説する。
論文 参考訳(メタデータ) (2023-12-15T14:18:54Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Towards Large-Scale Learned Solvers for Parametric PDEs with
Model-Parallel Fourier Neural Operators [3.0384874162715856]
フーリエニューラル演算子(フーリエニューラル演算子、FNO)は、偏微分方程式の解演算子を学習するためのニューラルネットワークアーキテクチャである。
入力データとネットワーク重みのドメイン分割に基づくFNOのモデル並列バージョンを提案する。
我々はモデル並列FNOが320億以上の変数の時間変化PDE解を予測できることを実証した。
論文 参考訳(メタデータ) (2022-04-04T02:12:03Z) - Local neural operator for solving transient partial differential
equations on varied domains [8.905324065830861]
そこで本稿では,PDE(Transient partial differential equation)の解法として局所ニューラル演算子(LNO)を提案する。
境界処理を含む便利な戦略が組み合わさり、1つの事前訓練されたLNOが、異なるドメインでのソリューションを予測することができる。
LNO はランダムに生成されたデータサンプルから Navier-Stokes 方程式を学習し、事前学習した LNO を明示的な数値マーチングスキームとして使用する。
論文 参考訳(メタデータ) (2022-03-11T06:41:51Z) - Pseudo-Differential Neural Operator: Generalized Fourier Neural Operator
for Learning Solution Operators of Partial Differential Equations [14.43135909469058]
本研究では,FNOにおけるフーリエ積分作用素を解析・一般化するための新しいテキスト型微分積分演算子(PDIO)を提案する。
提案モデルの有効性をDarcyフローとNavier-Stokes方程式を用いて実験的に検証した。
論文 参考訳(メタデータ) (2022-01-28T07:22:32Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。