論文の概要: U-NO: U-shaped Neural Operators
- arxiv url: http://arxiv.org/abs/2204.11127v3
- Date: Fri, 5 May 2023 05:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:51:39.623092
- Title: U-NO: U-shaped Neural Operators
- Title(参考訳): U-NO:U字型ニューラルオペレータ
- Authors: Md Ashiqur Rahman, Zachary E. Ross, Kamyar Azizzadenesheli
- Abstract要約: より深いニューラル演算を可能にするU字型メモリ拡張アーキテクチャであるU字型ニューラル演算子(U-NO)を提案する。
本稿では,PDE ベンチマークにおける U-NO の性能,すなわち Darcy のフロー則と Navier-Stokes 方程式について検討する。
- 参考スコア(独自算出の注目度): 6.735657356113614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators generalize classical neural networks to maps between
infinite-dimensional spaces, e.g., function spaces. Prior works on neural
operators proposed a series of novel methods to learn such maps and
demonstrated unprecedented success in learning solution operators of partial
differential equations. Due to their close proximity to fully connected
architectures, these models mainly suffer from high memory usage and are
generally limited to shallow deep learning models. In this paper, we propose
U-shaped Neural Operator (U-NO), a U-shaped memory enhanced architecture that
allows for deeper neural operators. U-NOs exploit the problem structures in
function predictions and demonstrate fast training, data efficiency, and
robustness with respect to hyperparameters choices. We study the performance of
U-NO on PDE benchmarks, namely, Darcy's flow law and the Navier-Stokes
equations. We show that U-NO results in an average of 26% and 44% prediction
improvement on Darcy's flow and turbulent Navier-Stokes equations,
respectively, over the state of the art. On Navier-Stokes 3D spatiotemporal
operator learning task, we show U-NO provides 37% improvement over the state of
art methods.
- Abstract(参考訳): ニューラルネットワークは、無限次元空間、例えば関数空間の間の写像に古典的ニューラルネットワークを一般化する。
ニューラル作用素に関する先行研究は、そのような写像を学ぶための一連の新しい方法を提案し、偏微分方程式の解作用素を学ぶことに前例のない成功を収めた。
完全に接続されたアーキテクチャに近いため、これらのモデルは主にメモリ使用量が高く、一般的に浅いディープラーニングモデルに限られる。
本稿では,より深いニューラル演算を可能にするU字型メモリ拡張アーキテクチャであるU字型ニューラル演算子(U-NO)を提案する。
U-NOは関数予測における問題構造を利用し、ハイパーパラメータの選択に関して高速なトレーニング、データ効率、堅牢性を実証する。
本稿では,PDE ベンチマークにおける U-NO の性能,すなわち Darcy のフロー則と Navier-Stokes 方程式について検討する。
u-noの結果,darcyの流速と乱流navier-stokes方程式における平均26%と44%の予測改善が得られた。
Navier-Stokes 3D Spatiotemporal operator learning taskでは,U-NOが最先端技術よりも37%向上していることを示す。
関連論文リスト
- Tensor-GaLore: Memory-Efficient Training via Gradient Tensor Decomposition [93.98343072306619]
本研究では,高次テンソル重み付きニューラルネットワークの効率的なトレーニング手法であるNavier-GaLoreを提案する。
様々なPDEタスクの中で、Navier-GaLoreはメモリ節約を実現し、最大75%のメモリ使用量を削減している。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - Spectral-Refiner: Fine-Tuning of Accurate Spatiotemporal Neural Operator for Turbulent Flows [6.961408873053586]
本稿では,ボヒナー空間間のマップを学習する新しい時間的ニューラル演算子(SFNO)と,これらの問題に対処する新しい学習フレームワークを提案する。
この新しいパラダイムは、従来の数値PDE理論と技法の知恵を利用して、一般的に採用されているエンドツーエンドのニューラル演算子のトレーニングと評価のパイプラインを洗練する。
2次元NSEのための一般的なベンチマークの数値実験は、エンドツーエンド評価や従来の数値PDEソルバと比較して計算効率と精度の両方が大幅に向上した。
論文 参考訳(メタデータ) (2024-05-27T14:33:06Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Wavelet neural operator: a neural operator for parametric partial
differential equations [0.0]
WNO(Wavelet Neural Operator)と呼ばれる新しい演算子学習アルゴリズムを提案する。
WNOは、関数の時間周波数局所化におけるウェーブレットの優位性を活用し、空間領域におけるパターンの正確な追跡を可能にする。
提案手法は、利用可能な歴史的データに基づいて地球の気温を予測するデジタルツインを構築するために用いられる。
論文 参考訳(メタデータ) (2022-05-04T17:13:59Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。