論文の概要: Pseudo-Differential Neural Operator: Generalized Fourier Neural Operator
for Learning Solution Operators of Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2201.11967v3
- Date: Mon, 4 Mar 2024 11:12:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 04:26:55.211089
- Title: Pseudo-Differential Neural Operator: Generalized Fourier Neural Operator
for Learning Solution Operators of Partial Differential Equations
- Title(参考訳): 擬微分ニューラル演算子:偏微分方程式の解演算子学習のための一般化フーリエニューラル演算子
- Authors: Jin Young Shin, Jae Yong Lee, Hyung Ju Hwang
- Abstract要約: 本研究では,FNOにおけるフーリエ積分作用素を解析・一般化するための新しいテキスト型微分積分演算子(PDIO)を提案する。
提案モデルの有効性をDarcyフローとNavier-Stokes方程式を用いて実験的に検証した。
- 参考スコア(独自算出の注目度): 14.43135909469058
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning the mapping between two function spaces has garnered considerable
research attention. However, learning the solution operator of partial
differential equations (PDEs) remains a challenge in scientific computing.
Fourier neural operator (FNO) was recently proposed to learn solution
operators, and it achieved an excellent performance. In this study, we propose
a novel \textit{pseudo-differential integral operator} (PDIO) to analyze and
generalize the Fourier integral operator in FNO. PDIO is inspired by a
pseudo-differential operator, which is a generalized differential operator
characterized by a certain symbol. We parameterize this symbol using a neural
network and demonstrate that the neural network-based symbol is contained in a
smooth symbol class. Subsequently, we verify that the PDIO is a bounded linear
operator, and thus is continuous in the Sobolev space. We combine the PDIO with
the neural operator to develop a \textit{pseudo-differential neural operator}
(PDNO) and learn the nonlinear solution operator of PDEs. We experimentally
validate the effectiveness of the proposed model by utilizing Darcy flow and
the Navier-Stokes equation. The obtained results indicate that the proposed
PDNO outperforms the existing neural operator approaches in most experiments.
- Abstract(参考訳): 2つの関数空間間のマッピングを学ぶことは、かなりの研究の注目を集めている。
しかし、偏微分方程式(PDE)の解演算子を学ぶことは科学計算の課題である。
フーリエニューラル演算子(FNO)は、最近、解演算子を学ぶために提案され、優れた性能を達成した。
本研究では,fno におけるフーリエ積分作用素を解析・一般化する新しい \textit{pseudo-differential integral operator} (pdio) を提案する。
PDIOは、ある記号によって特徴づけられる一般化微分作用素である擬微分作用素にインスパイアされている。
ニューラルネットワークを用いてこのシンボルをパラメータ化し、ニューラルネットワークに基づくシンボルがスムーズなシンボルクラスに含まれることを示す。
その後、PDIO が有界線型作用素であることを確認し、従ってソボレフ空間において連続である。
PDIOとニューラル演算子を組み合わせて, PDNO(textit{pseudo-differential neural operator})を開発し, PDEの非線形解演算子を学習する。
提案モデルの有効性をDarcyフローとNavier-Stokes方程式を用いて実験的に検証した。
その結果,提案するpdnoは既存のニューラルオペレータのアプローチに匹敵することがわかった。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Operator-learning-inspired Modeling of Neural Ordinary Differential
Equations [38.17903151426809]
本稿では,時間微分項を定義するニューラル演算子に基づく手法を提案する。
一般下流タスクを用いた実験では,提案手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-12-16T00:29:15Z) - Hyena Neural Operator for Partial Differential Equations [9.438207505148947]
ディープラーニングの最近の進歩は、ニューラル演算子の使用を含む偏微分方程式を解くための新しいアプローチをもたらした。
この研究は、多層パーセプトロンによってパラメータ化される長い畳み込みフィルタを使用するHyenaと呼ばれるニューラル演算子を利用する。
この結果から,ハイエナは偏微分方程式解演算器の効率的かつ高精度なモデルとして機能することが示唆された。
論文 参考訳(メタデータ) (2023-06-28T19:45:45Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。