論文の概要: Neural-POD: A Plug-and-Play Neural Operator Framework for Infinite-Dimensional Functional Nonlinear Proper Orthogonal Decomposition
- arxiv url: http://arxiv.org/abs/2602.15632v1
- Date: Tue, 17 Feb 2026 15:01:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.097239
- Title: Neural-POD: A Plug-and-Play Neural Operator Framework for Infinite-Dimensional Functional Nonlinear Proper Orthogonal Decomposition
- Title(参考訳): Neural-POD:無限次元非線形固有直交分解のためのプラグアンドプレイニューラル演算子フレームワーク
- Authors: Changhong Mou, Binghang Lu, Guang Lin,
- Abstract要約: 本稿では,プラグアンドプレイ型ニューラルオペレーターフレームワークであるNeural Proper Orthogonal Decomposition(Neural-POD)を提案する。
ニューラルPODは、ニューラルネットワークのトレーニングによって解決された残差最小化問題の系列として基礎構築を定式化する。
我々は,バーガーズ方程式やナビエストークス方程式など,複雑な分解能の異なるニューラルPODのロバスト性を示す。
- 参考スコア(独自算出の注目度): 7.1950116347185995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid development of AI for Science is often hindered by the "discretization", where learned representations remain restricted to the specific grids or resolutions used during training. We propose the Neural Proper Orthogonal Decomposition (Neural-POD), a plug-and-play neural operator framework that constructs nonlinear, orthogonal basis functions in infinite-dimensional space using neural networks. Unlike the classical Proper Orthogonal Decomposition (POD), which is limited to linear subspace approximations obtained through singular value decomposition (SVD), Neural-POD formulates basis construction as a sequence of residual minimization problems solved through neural network training. Each basis function is obtained by learning to represent the remaining structure in the data, following a process analogous to Gram--Schmidt orthogonalization. This neural formulation introduces several key advantages over classical POD: it enables optimization in arbitrary norms (e.g., $L^2$, $L^1$), learns mappings between infinite-dimensional function spaces that is resolution-invariant, generalizes effectively to unseen parameter regimes, and inherently captures nonlinear structures in complex spatiotemporal systems. The resulting basis functions are interpretable, reusable, and enabling integration into both reduced order modeling (ROM) and operator learning frameworks such as deep operator learning (DeepONet). We demonstrate the robustness of Neural-POD with different complex spatiotemporal systems, including the Burgers' and Navier-Stokes equations. We further show that Neural-POD serves as a high performance, plug-and-play bridge between classical Galerkin projection and operator learning that enables consistent integration with both projection-based reduced order models and DeepONet frameworks.
- Abstract(参考訳): AI for Scienceの急速な開発は、学習された表現がトレーニング中に使用される特定のグリッドや解像度に制限される「分散化」によって妨げられることが多い。
ニューラルネットワークを用いた無限次元空間における非線形直交基底関数を構成する,プラグアンドプレイ型ニューラル演算子フレームワークであるNeural Proper Orthogonal Decomposition(Neural-POD)を提案する。
特異値分解(SVD)によって得られる線形部分空間近似に制限される古典的固有直交分解(POD)とは異なり、ニューラルPODはニューラルネットワークトレーニングによって解決された残極最小化問題の列として基礎構築を行う。
各基底関数は、Gram-Schmidt直交化に類似したプロセスに従って、データ内の残りの構造を表現することを学習することによって得られる。
任意のノルム(例えば、$L^2$, $L^1$)での最適化を可能にし、分解不変な無限次元函数空間間の写像を学習し、見つからないパラメータ構造に効果的に一般化し、複雑な時空間系における非線形構造を本質的に捕捉する。
結果として得られる基本関数は解釈可能で再利用可能であり、低次モデリング(ROM)と深層演算子学習(DeepONet)のような演算子学習フレームワークの両方との統合を可能にする。
本稿では,バーガーズ方程式やナヴィエ・ストークス方程式など,複雑な時空間系を持つニューラルPODのロバスト性を示す。
さらに、Neural-PODは、従来のガレルキン投影と演算子学習のハイパフォーマンス、プラグアンドプレイブリッジとして機能し、プロジェクションベースの縮小順序モデルとDeepONetフレームワークとの一貫性のある統合を可能にすることを示す。
関連論文リスト
- Principled Approaches for Extending Neural Architectures to Function Spaces for Operator Learning [78.88684753303794]
ディープラーニングは主にコンピュータビジョンと自然言語処理の応用を通じて進歩してきた。
ニューラル演算子は、関数空間間のマッピングにニューラルネットワークを一般化する原則的な方法である。
本稿では、無限次元関数空間間の写像の実践的な実装を構築するための鍵となる原理を同定し、蒸留する。
論文 参考訳(メタデータ) (2025-06-12T17:59:31Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Designing Universal Causal Deep Learning Models: The Case of Infinite-Dimensional Dynamical Systems from Stochastic Analysis [7.373617024876726]
解析におけるいくつかの非線形作用素は、現代のニューラル作用素によって利用されていない時間構造に依存している。
本稿では,無限次元線形距離空間を適切に扱うディープラーニングモデル設計フレームワークを提案する。
我々のフレームワークはコンパクトな集合や任意の有限時間地平線 H" や滑らかなトレースクラス作用素に対して均一に近似できることを示す。
論文 参考訳(メタデータ) (2022-10-24T14:43:03Z) - Neural Generalized Ordinary Differential Equations with Layer-varying
Parameters [1.3691539554014036]
層状ニューラルGODEは標準ニューラルGODEよりも柔軟で汎用的であることを示す。
Neural-GODEは、予測精度でResNetsと互換性を持って実行しながら、計算とメモリの利点を享受する。
論文 参考訳(メタデータ) (2022-09-21T20:02:28Z) - Nonlocal Kernel Network (NKN): a Stable and Resolution-Independent Deep
Neural Network [23.465930256410722]
非ローカルカーネルネットワーク(NKN)は、ディープニューラルネットワークを特徴とする解像度独立である。
NKNは、支配方程式の学習や画像の分類など、さまざまなタスクを処理できる。
論文 参考訳(メタデータ) (2022-01-06T19:19:35Z) - Neural Stochastic Partial Differential Equations [1.2183405753834562]
物理に着想を得たニューラルアーキテクチャの2つの重要なクラスの拡張を提供するニューラルSPDEモデルを導入する。
一方、一般的な神経-通常、制御され、粗い-微分方程式モデルをすべて拡張し、入ってくる情報を処理することができる。
一方、関数空間間のマッピングをモデル化するニューラルネットワークの最近の一般化であるNeural Operatorsを拡張して、複雑なSPDEソリューション演算子を学習することができる。
論文 参考訳(メタデータ) (2021-10-19T20:35:37Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。