論文の概要: Learning Physical Operators using Neural Operators
- arxiv url: http://arxiv.org/abs/2602.23113v1
- Date: Thu, 26 Feb 2026 15:27:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.749401
- Title: Learning Physical Operators using Neural Operators
- Title(参考訳): ニューラルネットワークを用いた物理演算子の学習
- Authors: Vignesh Gopakumar, Ander Gray, Dan Giles, Lorenzo Zanisi, Matt J. Kusner, Timo Betcke, Stanislas Pamela, Marc Peter Deisenroth,
- Abstract要約: 我々は、線形作用素を固定有限差分畳み込みで近似しながら、個々の非線形物理作用素を学習するようにニューラルネットワークを訓練する。
学習した演算子が右辺を構成するニューラル常微分方程式(ODE)としてモデル化タスクを定式化する。
我々の手法は、目に見えない物理学を一般化する際に、より良い収束と優れた性能を達成する。
- 参考スコア(独自算出の注目度): 10.57578521926415
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Neural operators have emerged as promising surrogate models for solving partial differential equations (PDEs), but struggle to generalise beyond training distributions and are often constrained to a fixed temporal discretisation. This work introduces a physics-informed training framework that addresses these limitations by decomposing PDEs using operator splitting methods, training separate neural operators to learn individual non-linear physical operators while approximating linear operators with fixed finite-difference convolutions. This modular mixture-of-experts architecture enables generalisation to novel physical regimes by explicitly encoding the underlying operator structure. We formulate the modelling task as a neural ordinary differential equation (ODE) where these learned operators constitute the right-hand side, enabling continuous-in-time predictions through standard ODE solvers and implicitly enforcing PDE constraints. Demonstrated on incompressible and compressible Navier-Stokes equations, our approach achieves better convergence and superior performance when generalising to unseen physics. The method remains parameter-efficient, enabling temporal extrapolation beyond training horizons, and provides interpretable components whose behaviour can be verified against known physics.
- Abstract(参考訳): ニューラル作用素は偏微分方程式(PDE)を解くための有望な代理モデルとして現れてきたが、トレーニング分布を超えた一般化に苦慮し、しばしば時間的離散化に制約される。
この研究は、演算子分割法を用いてPDEを分解することでこれらの制限に対処する物理インフォームドトレーニングフレームワークを導入し、固定有限差分畳み込みで線形作用素を近似しながら、個別の非線形物理演算子を学習するために個別のニューラル演算子を訓練する。
このモジュラー・オブ・エキスパート・アーキテクチャは、基礎となる演算子構造を明示的に符号化することで、新しい物理レシエーションを一般化することを可能にする。
学習した演算子が右辺を構成するニューラル常微分方程式(ODE)としてモデル化タスクを定式化し、標準ODEソルバによる連続的インタイム予測を可能にし、PDE制約を暗黙的に実施する。
圧縮不可能で圧縮不能なナビエ・ストークス方程式を例証し、この手法は、目に見えない物理学に一般化する際に、より良い収束と優れた性能を達成する。
この方法はパラメータ効率を保ち、訓練地平線を超えた時間外挿を可能にし、既知の物理に対して振る舞いを検証することができる解釈可能なコンポーネントを提供する。
関連論文リスト
- Test-time Generalization for Physics through Neural Operator Splitting [12.59844119790293]
トレーニングオペレータの合成を探索し、未知のダイナミクスを近似する神経オペレータ分割戦略を導入する。
提案手法は,基礎となるPDEパラメータを復元しながら,最先端のゼロショット一般化結果を実現する。
論文 参考訳(メタデータ) (2026-01-31T20:08:57Z) - Expanding the Chaos: Neural Operator for Stochastic (Partial) Differential Equations [65.80144621950981]
我々はWienerカオス拡張(WCE)に基づいて、SPDEとSDEのためのニューラル演算子(NO)アーキテクチャを設計する。
WCEベースのニューラル演算子は、SDE/SPDEソリューション演算子を学習するための実用的でスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2026-01-03T00:59:25Z) - Fourier Neural Operators Explained: A Practical Perspective [75.12291469255794]
フーリエ・ニューラル・オペレータ(FNO)は、そのエレガントなスペクトル定式化により最も影響力があり広く採用されている。
本ガイドは,FNOを多種多様な科学・工学分野に効果的に適用するための,明確かつ信頼性の高い枠組みを確立することを目的とする。
論文 参考訳(メタデータ) (2025-12-01T08:56:21Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Koopman neural operator as a mesh-free solver of non-linear partial differential equations [15.410070455154138]
これらの課題を克服するために,新しいニューラル演算子であるクープマンニューラル演算子(KNO)を提案する。
力学系のすべての可能な観測を統括する無限次元作用素であるクープマン作用素を近似することにより、非線型PDEファミリーの解を等価に学べる。
KNOは、従来の最先端モデルと比較して顕著なアドバンテージを示している。
論文 参考訳(メタデータ) (2023-01-24T14:10:15Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。