論文の概要: U-NO: U-shaped Neural Operators
- arxiv url: http://arxiv.org/abs/2204.11127v3
- Date: Fri, 5 May 2023 05:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:51:39.623092
- Title: U-NO: U-shaped Neural Operators
- Title(参考訳): U-NO:U字型ニューラルオペレータ
- Authors: Md Ashiqur Rahman, Zachary E. Ross, Kamyar Azizzadenesheli
- Abstract要約: より深いニューラル演算を可能にするU字型メモリ拡張アーキテクチャであるU字型ニューラル演算子(U-NO)を提案する。
本稿では,PDE ベンチマークにおける U-NO の性能,すなわち Darcy のフロー則と Navier-Stokes 方程式について検討する。
- 参考スコア(独自算出の注目度): 6.735657356113614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators generalize classical neural networks to maps between
infinite-dimensional spaces, e.g., function spaces. Prior works on neural
operators proposed a series of novel methods to learn such maps and
demonstrated unprecedented success in learning solution operators of partial
differential equations. Due to their close proximity to fully connected
architectures, these models mainly suffer from high memory usage and are
generally limited to shallow deep learning models. In this paper, we propose
U-shaped Neural Operator (U-NO), a U-shaped memory enhanced architecture that
allows for deeper neural operators. U-NOs exploit the problem structures in
function predictions and demonstrate fast training, data efficiency, and
robustness with respect to hyperparameters choices. We study the performance of
U-NO on PDE benchmarks, namely, Darcy's flow law and the Navier-Stokes
equations. We show that U-NO results in an average of 26% and 44% prediction
improvement on Darcy's flow and turbulent Navier-Stokes equations,
respectively, over the state of the art. On Navier-Stokes 3D spatiotemporal
operator learning task, we show U-NO provides 37% improvement over the state of
art methods.
- Abstract(参考訳): ニューラルネットワークは、無限次元空間、例えば関数空間の間の写像に古典的ニューラルネットワークを一般化する。
ニューラル作用素に関する先行研究は、そのような写像を学ぶための一連の新しい方法を提案し、偏微分方程式の解作用素を学ぶことに前例のない成功を収めた。
完全に接続されたアーキテクチャに近いため、これらのモデルは主にメモリ使用量が高く、一般的に浅いディープラーニングモデルに限られる。
本稿では,より深いニューラル演算を可能にするU字型メモリ拡張アーキテクチャであるU字型ニューラル演算子(U-NO)を提案する。
U-NOは関数予測における問題構造を利用し、ハイパーパラメータの選択に関して高速なトレーニング、データ効率、堅牢性を実証する。
本稿では,PDE ベンチマークにおける U-NO の性能,すなわち Darcy のフロー則と Navier-Stokes 方程式について検討する。
u-noの結果,darcyの流速と乱流navier-stokes方程式における平均26%と44%の予測改善が得られた。
Navier-Stokes 3D Spatiotemporal operator learning taskでは,U-NOが最先端技術よりも37%向上していることを示す。
関連論文リスト
- Neural Operators with Localized Integral and Differential Kernels [81.66974615188359]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Wavelet neural operator: a neural operator for parametric partial
differential equations [0.0]
WNO(Wavelet Neural Operator)と呼ばれる新しい演算子学習アルゴリズムを提案する。
WNOは、関数の時間周波数局所化におけるウェーブレットの優位性を活用し、空間領域におけるパターンの正確な追跡を可能にする。
提案手法は、利用可能な歴史的データに基づいて地球の気温を予測するデジタルツインを構築するために用いられる。
論文 参考訳(メタデータ) (2022-05-04T17:13:59Z) - Improved architectures and training algorithms for deep operator
networks [0.0]
演算子学習技術は無限次元バナッハ空間間の写像を学習するための強力なツールとして登場した。
我々は,ニューラルタンジェントカーネル(NTK)理論のレンズを用いて,ディープオペレータネットワーク(DeepONets)のトレーニングダイナミクスを解析した。
論文 参考訳(メタデータ) (2021-10-04T18:34:41Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。