論文の概要: Banach neural operator for Navier-Stokes equations
- arxiv url: http://arxiv.org/abs/2512.09070v1
- Date: Fri, 28 Nov 2025 21:07:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.579528
- Title: Banach neural operator for Navier-Stokes equations
- Title(参考訳): Navier-Stokes方程式に対するバナッハニューラル作用素
- Authors: Bo Zhang,
- Abstract要約: 我々は、クープマン作用素理論とディープニューラルネットワークを統合する新しいフレームワークであるバナッハ・ニューラル演算子(BNO)を導入し、部分的な観測から非線形、時間的ダイナミクスを予測する。
BNOは(畳み込みニューラルネットワークと非線形活性化による)スペクトル線形化と深部特徴学習を組み合わせたバナッハ空間間の非線形作用素を近似する
NavierStoke-Sequences方程式の数値実験は、法の精度と一般化能力を実証している。
- 参考スコア(独自算出の注目度): 3.3864304526742397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical neural networks are known for their ability to approximate mappings between finite-dimensional spaces, but they fall short in capturing complex operator dynamics across infinite-dimensional function spaces. Neural operators, in contrast, have emerged as powerful tools in scientific machine learning for learning such mappings. However, standard neural operators typically lack mechanisms for mixing or attending to input information across space and time. In this work, we introduce the Banach neural operator (BNO) -- a novel framework that integrates Koopman operator theory with deep neural networks to predict nonlinear, spatiotemporal dynamics from partial observations. The BNO approximates a nonlinear operator between Banach spaces by combining spectral linearization (via Koopman theory) with deep feature learning (via convolutional neural networks and nonlinear activations). This sequence-to-sequence model captures dominant dynamic modes and allows for mesh-independent prediction. Numerical experiments on the Navier-Stokes equations demonstrate the method's accuracy and generalization capabilities. In particular, BNO achieves robust zero-shot super-resolution in unsteady flow prediction and consistently outperforms conventional Koopman-based methods and deep learning models.
- Abstract(参考訳): 古典的ニューラルネットワークは有限次元空間間の写像を近似する能力で知られているが、無限次元函数空間を横断する複素作用素のダイナミクスを捉えるには不十分である。
対照的に、ニューラル演算子は、そのようなマッピングを学ぶための科学的機械学習の強力なツールとして現れてきた。
しかし、標準的なニューラル演算子は、通常、空間と時間にわたって入力情報に混合または参加するメカニズムを欠いている。
本研究では,コオプマン作用素理論を深層ニューラルネットワークに統合し,部分的な観測から非線形時空間力学を予測する新しいフレームワークであるバナッハ・ニューラル演算子(BNO)を紹介する。
BNOは(クープマン理論による)スペクトル線型化と(畳み込みニューラルネットワークと非線形活性化による)深い特徴学習を組み合わせることで、バナッハ空間間の非線形作用素を近似する。
このシーケンス・ツー・シーケンス・モデルは、支配的な動的モードをキャプチャし、メッシュに依存しない予測を可能にする。
Navier-Stokes方程式に関する数値実験は、法の精度と一般化能力を実証している。
特に、BNOは非定常流予測において頑健なゼロショット超解像を達成し、従来のクープマン法やディープラーニングモデルより一貫して優れている。
関連論文リスト
- Principled Approaches for Extending Neural Architectures to Function Spaces for Operator Learning [78.88684753303794]
ディープラーニングは主にコンピュータビジョンと自然言語処理の応用を通じて進歩してきた。
ニューラル演算子は、関数空間間のマッピングにニューラルネットワークを一般化する原則的な方法である。
本稿では、無限次元関数空間間の写像の実践的な実装を構築するための鍵となる原理を同定し、蒸留する。
論文 参考訳(メタデータ) (2025-06-12T17:59:31Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
我々は、訓練されたニューラル演算子におけるベイズの不確実性定量化を近似するための新しいフレームワークLUNOを紹介する。
我々の手法はモデル線形化を利用して(ガウス的)重み空間の不確実性をニューラル作用素の予測に推し進める。
これは関数型プログラミングのカリー化の概念の確率的バージョンとして解釈でき、関数値(ガウス的)ランダムプロセスの信念を導出することを示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Nonlocality and Nonlinearity Implies Universality in Operator Learning [8.83910715280152]
ニューラル作用素アーキテクチャは、無限次元バナッハ空間の間の作用素を近似する。
函数空間間の作用素の一般近似が非局所的かつ非線形であることは明らかである。
これら2つの属性をどのように組み合わせて、普遍近似を導出するかを示す。
論文 参考訳(メタデータ) (2023-04-26T01:03:11Z) - Designing Universal Causal Deep Learning Models: The Case of Infinite-Dimensional Dynamical Systems from Stochastic Analysis [7.373617024876726]
解析におけるいくつかの非線形作用素は、現代のニューラル作用素によって利用されていない時間構造に依存している。
本稿では,無限次元線形距離空間を適切に扱うディープラーニングモデル設計フレームワークを提案する。
我々のフレームワークはコンパクトな集合や任意の有限時間地平線 H" や滑らかなトレースクラス作用素に対して均一に近似できることを示す。
論文 参考訳(メタデータ) (2022-10-24T14:43:03Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。