論文の概要: Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs
- arxiv url: http://arxiv.org/abs/2310.00120v1
- Date: Fri, 29 Sep 2023 20:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 06:34:01.474866
- Title: Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs
- Title(参考訳): 高分解能PDE用マルチグリッドテンソル化フーリエニューラル演算子
- Authors: Jean Kossaifi, Nikola Kovachki, Kamyar Azizzadenesheli, Anima
Anandkumar
- Abstract要約: 本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
- 参考スコア(独自算出の注目度): 93.82811501035569
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory complexity and data scarcity have so far prohibited learning solution
operators of partial differential equations (PDEs) at high resolutions. We
address these limitations by introducing a new data efficient and highly
parallelizable operator learning approach with reduced memory requirement and
better generalization, called multi-grid tensorized neural operator (MG-TFNO).
MG-TFNO scales to large resolutions by leveraging local and global structures
of full-scale, real-world phenomena, through a decomposition of both the input
domain and the operator's parameter space. Our contributions are threefold: i)
we enable parallelization over input samples with a novel multi-grid-based
domain decomposition, ii) we represent the parameters of the model in a
high-order latent subspace of the Fourier domain, through a global tensor
factorization, resulting in an extreme reduction in the number of parameters
and improved generalization, and iii) we propose architectural improvements to
the backbone FNO. Our approach can be used in any operator learning setting. We
demonstrate superior performance on the turbulent Navier-Stokes equations where
we achieve less than half the error with over 150x compression. The
tensorization combined with the domain decomposition, yields over 150x
reduction in the number of parameters and 7x reduction in the domain size
without losses in accuracy, while slightly enabling parallelism.
- Abstract(参考訳): メモリの複雑さとデータ不足は、高分解能での偏微分方程式(PDE)の学習ソリューション演算子をこれまで禁止してきた。
メモリ要求を低減し、より一般化した多グリッドテンソル化ニューラル演算子(MG-TFNO)と呼ばれる新しいデータ効率が高く並列化可能な演算子学習手法を導入することで、これらの制限に対処する。
mg-tfnoは、入力領域と演算子のパラメータ空間の両方を分解することで、実世界現象の局所的および大域的な構造を活用することによって、大きな解像度にスケールする。
私たちの貢献は3倍です
一 新規なマルチグリッドドメイン分解による入力サンプルの並列化を可能にする。
二 フーリエ領域の高次潜在部分空間におけるモデルのパラメータを大域的テンソル因子分解により表現し、パラメータ数を極端に減少させ、一般化を改善した。
iii)backbone fnoのアーキテクチャ改善を提案する。
当社のアプローチは,オペレータの学習設定でも使用可能です。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
テンソル化と領域分解を組み合わせると、パラメータ数を150倍以上削減し、精度を損なうことなくドメインサイズを7倍削減できる。
関連論文リスト
- Capturing the Diffusive Behavior of the Multiscale Linear Transport
Equations by Asymptotic-Preserving Convolutional DeepONets [31.88833218777623]
Asymptotic-Preserving Convolutional Deep Operator Networks (APCONs) について紹介する。
本研究では,グローバルな熱カーネルの代わりに複数のローカルな畳み込み演算を用いた畳み込みディープオペレータネットワークを提案する。
我々のAPCON法は, グリッドサイズに依存しないパラメータ数を持ち, 線形輸送問題の拡散挙動を捉えることができる。
論文 参考訳(メタデータ) (2023-06-28T03:16:45Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Towards a machine learning pipeline in reduced order modelling for
inverse problems: neural networks for boundary parametrization,
dimensionality reduction and solution manifold approximation [0.0]
逆問題、特に偏微分方程式の文脈では、膨大な計算負荷を必要とする。
ニューラルネットワークを用いた数値パイプラインを用いて,問題の境界条件のパラメータ化を行う。
これは、インレット境界のアドホックなパラメトリゼーションを提供することができ、迅速に最適解に収束する一般的な枠組みに由来する。
論文 参考訳(メタデータ) (2022-10-26T14:53:07Z) - Designing Universal Causal Deep Learning Models: The Case of
Infinite-Dimensional Dynamical Systems from Stochastic Analysis [3.5450828190071655]
因果作用素(COs)は、現代の分析において中心的な役割を果たす。
COを近似できるディープラーニング(DL)モデルを設計するための標準的なフレームワークはまだ存在しない。
本稿では、DLモデル設計フレームワークを導入することにより、このオープンな問題に対する「幾何学的認識」ソリューションを提案する。
論文 参考訳(メタデータ) (2022-10-24T14:43:03Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Lightweight Convolutional Neural Networks By Hypercomplex
Parameterization [10.420215908252425]
超複素畳み込み層のパラメータ化を定義し、軽量で効率的な大規模畳み込みモデルを開発する。
提案手法は,データから直接,畳み込みルールとフィルタ組織を把握している。
様々な画像データセットとオーディオデータセットで実験を行うことにより、このアプローチの複数のドメインに対する汎用性を実証する。
論文 参考訳(メタデータ) (2021-10-08T14:57:19Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。