論文の概要: Multiwavelet-based Operator Learning for Differential Equations
- arxiv url: http://arxiv.org/abs/2109.13459v1
- Date: Tue, 28 Sep 2021 03:21:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 01:08:48.820269
- Title: Multiwavelet-based Operator Learning for Differential Equations
- Title(参考訳): 微分方程式に対するマルチウェーブレットに基づく演算子学習
- Authors: Gaurav Gupta, Xiongye Xiao, Paul Bogdan
- Abstract要約: 本稿では,関連する演算子のカーネルを圧縮する,テキストマルチウェーブレットに基づくニューラル演算子学習方式を提案する。
逆マルチウェーブレットフィルタを明示的に埋め込み、固定されたマルチウェーブレットベースへのカーネルのプロジェクションを学習する。
既存のニューラル演算子アプローチと比較して、我々のモデルは、さまざまなデータセットにおいて、かなり精度が高く、最先端であることを示している。
- 参考スコア(独自算出の注目度): 3.0824316066680484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The solution of a partial differential equation can be obtained by computing
the inverse operator map between the input and the solution space. Towards this
end, we introduce a \textit{multiwavelet-based neural operator learning scheme}
that compresses the associated operator's kernel using fine-grained wavelets.
By explicitly embedding the inverse multiwavelet filters, we learn the
projection of the kernel onto fixed multiwavelet polynomial bases. The
projected kernel is trained at multiple scales derived from using repeated
computation of multiwavelet transform. This allows learning the complex
dependencies at various scales and results in a resolution-independent scheme.
Compare to the prior works, we exploit the fundamental properties of the
operator's kernel which enable numerically efficient representation. We perform
experiments on the Korteweg-de Vries (KdV) equation, Burgers' equation, Darcy
Flow, and Navier-Stokes equation. Compared with the existing neural operator
approaches, our model shows significantly higher accuracy and achieves
state-of-the-art in a range of datasets. For the time-varying equations, the
proposed method exhibits a ($2X-10X$) improvement ($0.0018$ ($0.0033$) relative
$L2$ error for Burgers' (KdV) equation). By learning the mappings between
function spaces, the proposed method has the ability to find the solution of a
high-resolution input after learning from lower-resolution data.
- Abstract(参考訳): 偏微分方程式の解は、入力と解空間の間の逆作用素写像を計算することによって得られる。
この目的に向けて,きめ細かいウェーブレットを用いて関連する演算子のカーネルを圧縮する \textit{multiwavelet-based neural operator learning scheme} を導入する。
逆マルチウェーブレットフィルタを明示的に埋め込み、固定されたマルチウェーブレット多項式基底へのカーネルの投影を学習する。
投影されたカーネルはマルチウェーブレット変換の繰り返し計算を用いて複数のスケールで訓練される。
これにより、様々なスケールで複雑な依存関係を学習し、解決に依存しないスキームが得られる。
先行研究と比較して,数値的に効率的な表現を可能にする演算子のカーネルの基本特性を利用する。
我々はKdV方程式、Burgers方程式、Darcy Flow、Navier-Stokes方程式について実験を行う。
既存のニューラルオペレータのアプローチと比較すると,このモデルは精度が著しく向上し,様々なデータセットにおいて最先端を実現する。
時変方程式に対しては、提案手法は2x-10x$ (0.0018$ (0.0033$) のバーガーズ方程式 (kdv) に対して相対的に l2$ の誤差を示す。
関数空間間のマッピングを学習することにより,低分解能データから学習した後,高分解能入力の解を求めることができる。
関連論文リスト
- Learning Partial Differential Equations with Deep Parallel Neural Operator [11.121415128908566]
新たな手法は、出力間のマッピングを近似する手段として演算子を学ぶことである。
物理科学の実践的な問題では、偏微分方程式の数値解は複雑である。
偏微分方程式の解法を効率よく正確に解くために,DPNO(Deep parallel operator model)を提案する。
論文 参考訳(メタデータ) (2024-09-30T06:04:04Z) - Dilated convolution neural operator for multiscale partial differential equations [11.093527996062058]
本稿では,多スケール偏微分方程式に対するDilated Convolutional Neural Operator (DCNO)を提案する。
DCNOアーキテクチャは、低計算コストを維持しながら、高周波と低周波の両方の特徴を効果的にキャプチャする。
我々は,DCNOが精度と計算コストの最適なバランスをとることを示し,マルチスケール演算子学習に有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-16T08:17:02Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Hyena Neural Operator for Partial Differential Equations [9.438207505148947]
ディープラーニングの最近の進歩は、ニューラル演算子の使用を含む偏微分方程式を解くための新しいアプローチをもたらした。
この研究は、多層パーセプトロンによってパラメータ化される長い畳み込みフィルタを使用するHyenaと呼ばれるニューラル演算子を利用する。
この結果から,ハイエナは偏微分方程式解演算器の効率的かつ高精度なモデルとして機能することが示唆された。
論文 参考訳(メタデータ) (2023-06-28T19:45:45Z) - Coupled Multiwavelet Neural Operator Learning for Coupled Partial Differential Equations [12.78654908572053]
本稿では,結合した積分カーネルを分離し,テキスト結合型マルチウェーブレットニューラル演算子(CMWNO)の学習手法を提案する。
提案手法は,従来の学習型解法に比べて精度が高い。
論文 参考訳(メタデータ) (2023-03-04T03:06:47Z) - Fast Differentiable Matrix Square Root and Inverse Square Root [65.67315418971688]
微分可能な行列平方根と逆平方根を計算するためのより効率的な2つの変種を提案する。
前方伝搬には, Matrix Taylor Polynomial (MTP) を用いる方法と, Matrix Pad'e Approximants (MPA) を使用する方法がある。
一連の数値実験により、両方の手法がSVDやNSの繰り返しと比較してかなりスピードアップすることが示された。
論文 参考訳(メタデータ) (2022-01-29T10:00:35Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。