論文の概要: Learning Physical Operators using Neural Operators
- arxiv url: http://arxiv.org/abs/2602.23113v1
- Date: Thu, 26 Feb 2026 15:27:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.749401
- Title: Learning Physical Operators using Neural Operators
- Title(参考訳): ニューラルネットワークを用いた物理演算子の学習
- Authors: Vignesh Gopakumar, Ander Gray, Dan Giles, Lorenzo Zanisi, Matt J. Kusner, Timo Betcke, Stanislas Pamela, Marc Peter Deisenroth,
- Abstract要約: 我々は、線形作用素を固定有限差分畳み込みで近似しながら、個々の非線形物理作用素を学習するようにニューラルネットワークを訓練する。
学習した演算子が右辺を構成するニューラル常微分方程式(ODE)としてモデル化タスクを定式化する。
我々の手法は、目に見えない物理学を一般化する際に、より良い収束と優れた性能を達成する。
- 参考スコア(独自算出の注目度): 10.57578521926415
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Neural operators have emerged as promising surrogate models for solving partial differential equations (PDEs), but struggle to generalise beyond training distributions and are often constrained to a fixed temporal discretisation. This work introduces a physics-informed training framework that addresses these limitations by decomposing PDEs using operator splitting methods, training separate neural operators to learn individual non-linear physical operators while approximating linear operators with fixed finite-difference convolutions. This modular mixture-of-experts architecture enables generalisation to novel physical regimes by explicitly encoding the underlying operator structure. We formulate the modelling task as a neural ordinary differential equation (ODE) where these learned operators constitute the right-hand side, enabling continuous-in-time predictions through standard ODE solvers and implicitly enforcing PDE constraints. Demonstrated on incompressible and compressible Navier-Stokes equations, our approach achieves better convergence and superior performance when generalising to unseen physics. The method remains parameter-efficient, enabling temporal extrapolation beyond training horizons, and provides interpretable components whose behaviour can be verified against known physics.
- Abstract(参考訳): ニューラル作用素は偏微分方程式(PDE)を解くための有望な代理モデルとして現れてきたが、トレーニング分布を超えた一般化に苦慮し、しばしば時間的離散化に制約される。
この研究は、演算子分割法を用いてPDEを分解することでこれらの制限に対処する物理インフォームドトレーニングフレームワークを導入し、固定有限差分畳み込みで線形作用素を近似しながら、個別の非線形物理演算子を学習するために個別のニューラル演算子を訓練する。
このモジュラー・オブ・エキスパート・アーキテクチャは、基礎となる演算子構造を明示的に符号化することで、新しい物理レシエーションを一般化することを可能にする。
学習した演算子が右辺を構成するニューラル常微分方程式(ODE)としてモデル化タスクを定式化し、標準ODEソルバによる連続的インタイム予測を可能にし、PDE制約を暗黙的に実施する。
圧縮不可能で圧縮不能なナビエ・ストークス方程式を例証し、この手法は、目に見えない物理学に一般化する際に、より良い収束と優れた性能を達成する。
この方法はパラメータ効率を保ち、訓練地平線を超えた時間外挿を可能にし、既知の物理に対して振る舞いを検証することができる解釈可能なコンポーネントを提供する。
関連論文リスト
- Test-time Generalization for Physics through Neural Operator Splitting [12.59844119790293]
トレーニングオペレータの合成を探索し、未知のダイナミクスを近似する神経オペレータ分割戦略を導入する。
提案手法は,基礎となるPDEパラメータを復元しながら,最先端のゼロショット一般化結果を実現する。
論文 参考訳(メタデータ) (2026-01-31T20:08:57Z) - CompNO: A Novel Foundation Model approach for solving Partial Differential Equations [0.0]
偏微分方程式は幅広い物理現象を支配しているが、その数値解は計算的に要求されるままである。
最近のSFM(Scientific Foundation Models)は、シミュレーションシステムの大規模なコレクションから普遍的なサロゲートを学習することで、このコストを軽減することを目的としている。
パラメトリックPDEのための合成ニューラルネットワークフレームワークCompNOを紹介する。
論文 参考訳(メタデータ) (2026-01-12T10:04:48Z) - Expanding the Chaos: Neural Operator for Stochastic (Partial) Differential Equations [65.80144621950981]
我々はWienerカオス拡張(WCE)に基づいて、SPDEとSDEのためのニューラル演算子(NO)アーキテクチャを設計する。
WCEベースのニューラル演算子は、SDE/SPDEソリューション演算子を学習するための実用的でスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2026-01-03T00:59:25Z) - Fourier Neural Operators Explained: A Practical Perspective [75.12291469255794]
フーリエ・ニューラル・オペレータ(FNO)は、そのエレガントなスペクトル定式化により最も影響力があり広く採用されている。
本ガイドは,FNOを多種多様な科学・工学分野に効果的に適用するための,明確かつ信頼性の高い枠組みを確立することを目的とする。
論文 参考訳(メタデータ) (2025-12-01T08:56:21Z) - Accelerating PDE Solvers with Equation-Recast Neural Operator Preconditioning [9.178290601589365]
Minimal-Data Parametric Neural Operator Preconditioning (MD-PNOP) はパラメトリックPDEソルバを高速化するための新しいパラダイムである。
パラメータ偏差の残差を、トレーニングされたニューラル演算子を使用して、オフラインでソリューションを洗練させる、追加のソース用語として再キャストする。
固定ソース、単一グループ固有値、および多群結合固有値問題に対する完全順序忠実度を維持しつつ、計算時間の50%削減を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-01T12:14:58Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Koopman neural operator as a mesh-free solver of non-linear partial differential equations [15.410070455154138]
これらの課題を克服するために,新しいニューラル演算子であるクープマンニューラル演算子(KNO)を提案する。
力学系のすべての可能な観測を統括する無限次元作用素であるクープマン作用素を近似することにより、非線型PDEファミリーの解を等価に学べる。
KNOは、従来の最先端モデルと比較して顕著なアドバンテージを示している。
論文 参考訳(メタデータ) (2023-01-24T14:10:15Z) - Generalized Neural Closure Models with Interpretability [28.269731698116257]
我々は、統合された神経部分遅延微分方程式の新規で汎用的な方法論を開発した。
マルコフ型および非マルコフ型ニューラルネットワーク(NN)の閉包パラメータ化を用いて, 偏微分方程式(PDE)における既存/低忠実度力学モデルを直接拡張する。
本研究では, 非線形波動, 衝撃波, 海洋酸性化モデルに基づく4つの実験セットを用いて, 新しい一般化ニューラルクロージャモデル(gnCMs)の枠組みを実証する。
論文 参考訳(メタデータ) (2023-01-15T21:57:43Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - STEER: Simple Temporal Regularization For Neural ODEs [80.80350769936383]
トレーニング中のODEの終了時刻をランダムにサンプリングする新しい正規化手法を提案する。
提案された正規化は実装が簡単で、オーバーヘッドを無視でき、様々なタスクで有効である。
本稿では,フローの正規化,時系列モデル,画像認識などの実験を通じて,提案した正規化がトレーニング時間を大幅に短縮し,ベースラインモデルよりも性能を向上できることを示す。
論文 参考訳(メタデータ) (2020-06-18T17:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。