論文の概要: Deep Parallel Spectral Neural Operators for Solving Partial Differential Equations with Enhanced Low-Frequency Learning Capability
- arxiv url: http://arxiv.org/abs/2409.19976v4
- Date: Fri, 21 Feb 2025 05:53:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 19:41:41.518953
- Title: Deep Parallel Spectral Neural Operators for Solving Partial Differential Equations with Enhanced Low-Frequency Learning Capability
- Title(参考訳): 低周波学習能力を有する部分微分方程式を解くための深層並列スペクトルニューラル演算子
- Authors: Qinglong Ma, Peizhi Zhao, Sen Wang, Tao Song,
- Abstract要約: 低周波情報を学習する能力を高めるために,DPNO(Deep Parallel Spectral Neural Operator)を提案する。
本手法は,並列モジュールによる低周波情報学習能力を向上させる。
この情報を畳み込みマッピングによってスムーズにすることで、高周波エラーを低減する。
- 参考スコア(独自算出の注目度): 11.121415128908566
- License:
- Abstract: Designing universal artificial intelligence (AI) solver for partial differential equations (PDEs) is an open-ended problem and a significant challenge in science and engineering. Currently, data-driven solvers have achieved great success, such as neural operators. However, the ability of various neural operator solvers to learn low-frequency information still needs improvement. In this study, we propose a Deep Parallel Spectral Neural Operator (DPNO) to enhance the ability to learn low-frequency information. Our method enhances the neural operator's ability to learn low-frequency information through parallel modules. In addition, due to the presence of truncation coefficients, some high-frequency information is lost during the nonlinear learning process. We smooth this information through convolutional mappings, thereby reducing high-frequency errors. We selected several challenging partial differential equation datasets for experimentation, and DPNO performed exceptionally well. As a neural operator, DPNO also possesses the capability of resolution invariance.
- Abstract(参考訳): 偏微分方程式(PDE)のための普遍人工知能(AI)解決器を設計することは、科学と工学の重要な課題である。
現在、データ駆動型ソルバは、ニューラル演算子など、大きな成功を収めている。
しかし、様々なニューラル演算子の低周波情報学習能力は依然として改善が必要である。
本研究では,低周波情報を学習する能力を高めるために,Deep Parallel Spectral Neural Operator (DPNO)を提案する。
本手法は,並列モジュールによる低周波情報学習能力を向上させる。
また, トランケーション係数の存在により, 非線形学習過程において, 高周波情報の一部が失われる。
この情報を畳み込みマッピングによってスムーズにすることで、高周波エラーを低減する。
実験のためにいくつかの挑戦的偏微分方程式データセットを選択し,DPNOは極めて良好に動作した。
ニューラル演算子として、DPNOは分解不変性を持つ。
関連論文リスト
- A Resolution Independent Neural Operator [0.0]
任意のセンサ位置とカウントを持つ入力出力データから演算子を学習するための一般的なフレームワークを提案する。
暗黙的ニューラル表現としてパラメータ化された連続基底関数を適応的に学習する2つの辞書学習アルゴリズムを提案する。
これらの基底関数は入力関数データを有限次元の埋め込み空間に投影し、アーキテクチャ上の変更なしにDeepONetと互換性を持つ。
論文 参考訳(メタデータ) (2024-07-17T21:03:21Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - D2NO: Efficient Handling of Heterogeneous Input Function Spaces with
Distributed Deep Neural Operators [7.119066725173193]
異種性を示す入力関数を扱うための新しい分散手法を提案する。
中央ニューラルネットワークは、すべての出力関数間で共有情報を処理するために使用される。
ニューラルネットワークが連続非線形作用素の普遍近似であることを示す。
論文 参考訳(メタデータ) (2023-10-29T03:29:59Z) - Hyena Neural Operator for Partial Differential Equations [9.438207505148947]
ディープラーニングの最近の進歩は、ニューラル演算子の使用を含む偏微分方程式を解くための新しいアプローチをもたらした。
この研究は、多層パーセプトロンによってパラメータ化される長い畳み込みフィルタを使用するHyenaと呼ばれるニューラル演算子を利用する。
この結果から,ハイエナは偏微分方程式解演算器の効率的かつ高精度なモデルとして機能することが示唆された。
論文 参考訳(メタデータ) (2023-06-28T19:45:45Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。