論文の概要: Fourier Neural Operator for Parametric Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2010.08895v3
- Date: Mon, 17 May 2021 03:12:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 04:42:06.175005
- Title: Fourier Neural Operator for Parametric Partial Differential Equations
- Title(参考訳): パラメトリック部分微分方程式に対するフーリエニューラル演算子
- Authors: Zongyi Li, Nikola Kovachki, Kamyar Azizzadenesheli, Burigede Liu,
Kaushik Bhattacharya, Andrew Stuart, Anima Anandkumar
- Abstract要約: 積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
- 参考スコア(独自算出の注目度): 57.90284928158383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The classical development of neural networks has primarily focused on
learning mappings between finite-dimensional Euclidean spaces. Recently, this
has been generalized to neural operators that learn mappings between function
spaces. For partial differential equations (PDEs), neural operators directly
learn the mapping from any functional parametric dependence to the solution.
Thus, they learn an entire family of PDEs, in contrast to classical methods
which solve one instance of the equation. In this work, we formulate a new
neural operator by parameterizing the integral kernel directly in Fourier
space, allowing for an expressive and efficient architecture. We perform
experiments on Burgers' equation, Darcy flow, and Navier-Stokes equation. The
Fourier neural operator is the first ML-based method to successfully model
turbulent flows with zero-shot super-resolution. It is up to three orders of
magnitude faster compared to traditional PDE solvers. Additionally, it achieves
superior accuracy compared to previous learning-based solvers under fixed
resolution.
- Abstract(参考訳): ニューラルネットワークの古典的な発展は、主に有限次元ユークリッド空間間の写像の学習に焦点を当てている。
近年,関数空間間の写像を学習するニューラル演算子に一般化されている。
偏微分方程式(pdes)では、神経作用素は任意の関数パラメトリック依存から解へのマッピングを直接学習する。
したがって、方程式の1つの例を解く古典的な方法とは対照的に、彼らはPDEの族全体を学ぶ。
本研究では,積分カーネルを直接フーリエ空間にパラメータ化することにより,表現的かつ効率的なアーキテクチャを実現する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
フーリエニューラル作用素は、ゼロショット超解像で乱流をモデル化する最初のMLベースの手法である。
従来のPDEソルバに比べて最大3桁高速である。
さらに, 従来の学習に基づく解法に比べて, 精度が向上する。
関連論文リスト
- KoopmanLab: A PyTorch module of Koopman neural operator family for
solving partial differential equations [8.226091960522512]
偏微分方程式を解くために、クープマン神経オペレーターファミリーの自己完結型およびユーザフレンドリーなPyTorchモジュールであるクープマンLabを提案する。
我々は、モジュールの汎用性を改善するために、異なるニューラルネットワークアーキテクチャに基づいて、KNOの複数の新しい変種を開発する。
これらの変種は、代表PDEに実装されたメッシュ非依存および長期予測実験によって検証される。
論文 参考訳(メタデータ) (2023-01-03T13:58:39Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
拡散モデルは様々な地域で広く採用されている。
しかし,ネットワーク評価の数百~3分の1で逆処理をエミュレートするので,サンプリングは遅い。
微分方程式解の高速化におけるニューラル演算子の成功に触発されて、演算子学習の観点から基礎となるニューラル微分方程式を解くことにより、この問題にアプローチする。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - U-NO: U-shaped Neural Operators [6.735657356113614]
より深いニューラル演算を可能にするアーキテクチャであるU字型ニューラル演算子U-NOを提案する。
U-NOはダーシー流とナビエ・ストークス方程式で平均14%, 38%の予測精度が向上した。
論文 参考訳(メタデータ) (2022-04-23T19:18:44Z) - Pseudo-Differential Integral Operator for Learning Solution Operators of
Partial Differential Equations [2.4815579733050153]
偏微分方程式(PDE)の解演算子を学ぶことは、科学計算における課題である。
擬微分演算子にインスパイアされた新しい擬微分積分演算子(PDIO)を提案する。
PDEの非線形解演算子を学習するために擬微分ニューラル演算子(PDNO)を開発した。
論文 参考訳(メタデータ) (2022-01-28T07:22:32Z) - Neural Operator: Learning Maps Between Function Spaces [40.256994804214315]
無限次元関数空間間の写像を学習するためのニューラルネットワークの一般化を提案する。
線形積分作用素のクラスと非線形活性化関数の合成により演算子の近似を定式化する。
提案したニューラル演算子は分解不変であり、基礎となる関数空間の異なる離散化間で同じネットワークパラメータを共有する。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。