論文の概要: CompNO: A Novel Foundation Model approach for solving Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2601.07384v1
- Date: Mon, 12 Jan 2026 10:04:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.330374
- Title: CompNO: A Novel Foundation Model approach for solving Partial Differential Equations
- Title(参考訳): CompNO:部分微分方程式を解くための新しい基礎モデルアプローチ
- Authors: Hamda Hmida, Hsiu-Wen Chang Joly, Youssef Mesri,
- Abstract要約: 偏微分方程式は幅広い物理現象を支配しているが、その数値解は計算的に要求されるままである。
最近のSFM(Scientific Foundation Models)は、シミュレーションシステムの大規模なコレクションから普遍的なサロゲートを学習することで、このコストを軽減することを目的としている。
パラメトリックPDEのための合成ニューラルネットワークフレームワークCompNOを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial differential equations (PDEs) govern a wide range of physical phenomena, but their numerical solution remains computationally demanding, especially when repeated simulations are required across many parameter settings. Recent Scientific Foundation Models (SFMs) aim to alleviate this cost by learning universal surrogates from large collections of simulated systems, yet they typically rely on monolithic architectures with limited interpretability and high pretraining expense. In this work we introduce Compositional Neural Operators (CompNO), a compositional neural operator framework for parametric PDEs. Instead of pretraining a single large model on heterogeneous data, CompNO first learns a library of Foundation Blocks, where each block is a parametric Fourier neural operator specialized to a fundamental differential operator (e.g. convection, diffusion, nonlinear convection). These blocks are then assembled, via lightweight Adaptation Blocks, into task-specific solvers that approximate the temporal evolution operator for target PDEs. A dedicated boundary-condition operator further enforces Dirichlet constraints exactly at inference time. We validate CompNO on one-dimensional convection, diffusion, convection--diffusion and Burgers' equations from the PDEBench suite. The proposed framework achieves lower relative L2 error than strong baselines (PFNO, PDEFormer and in-context learning based models) on linear parametric systems, while remaining competitive on nonlinear Burgers' flows. The model maintains exact boundary satisfaction with zero loss at domain boundaries, and exhibits robust generalization across a broad range of Peclet and Reynolds numbers. These results demonstrate that compositional neural operators provide a scalable and physically interpretable pathway towards foundation models for PDEs.
- Abstract(参考訳): 偏微分方程式(PDE)は、幅広い物理現象を支配しているが、数値解は、特に多くのパラメータ設定で繰り返しシミュレーションを必要とする場合、計算的に要求される。
最近のSFM(Scientific Foundation Models)は、シミュレーションシステムの大規模なコレクションから普遍的なサロゲートを学習することで、このコストを軽減することを目的としている。
本研究では、パラメトリックPDEのための合成ニューラルネットワークフレームワークCompNOを紹介する。
CompNOは、不均一なデータに対して単一の大きなモデルを事前学習する代わりに、まずファンデーションブロックのライブラリを学び、そこで各ブロックは基本微分作用素(例えば対流、拡散、非線形対流)に特化したパラメトリックフーリエニューラル演算子である。
これらのブロックは、軽量なAdaptation Blocksを介して、ターゲットPDEの時間的進化演算子を近似するタスク固有の解決器に組み立てられる。
専用境界条件演算子は、推論時に正確にディリクレ制約を強制する。
PDEBench スイートからの一次元対流,拡散,対流-拡散,バーガースの方程式について CompNO を検証した。
提案手法は,線形パラメトリックシステム上での強いベースライン(PFNO, PDEFormer, in-context learning based model)よりも低い相対的L2誤差を実現する。
このモデルは、ドメイン境界における損失ゼロの正確な境界満足度を維持し、幅広いペクルト数とレイノルズ数にわたって堅牢な一般化を示す。
これらの結果は、構成型ニューラルネットワークがPDEの基礎モデルに向けたスケーラブルで物理的に解釈可能な経路を提供することを示している。
関連論文リスト
- Physics-informed low-rank neural operators with application to parametric elliptic PDEs [0.0]
点クラウドデータ上で偏微分方程式(PDE)の解演算子を近似するニューラルネットワークフレームワークであるPILNOを提案する。
PILNOは、低ランクカーネル近似とエンコーダ・デコーダアーキテクチャを組み合わせることで、高速で連続的なワンショットの予測を可能にし、特定の離散化とは無関係である。
本稿では, 関数フィッティング, ポアソン方程式, 可変係数のスクリーニングポアソン方程式, パラメータ化ダーシー流など, 様々な問題に対して有効性を示す。
論文 参考訳(メタデータ) (2025-09-09T12:54:06Z) - Scale-Consistent Learning for Partial Differential Equations [79.48661503591943]
本稿では,PDEのスケール一貫性特性に基づくデータ拡張手法を提案する。
次に、幅広いスケールをモデル化できるスケールインフォームド・ニューラル演算子を設計する。
スケール一貫性によって、1000ドルの$Re$でトレーニングされたモデルは、250から10000までの$Re$に一般化することができる。
論文 参考訳(メタデータ) (2025-07-24T21:29:52Z) - Neural Expectation Operators [2.1756081703276]
本稿では,非線形予測によるあいまいさをモデル化するためのパラダイムであるtextbfMeasure Learningを紹介する。
我々はニューラル期待演算子を、ドライバがニューラルネットワークによってパラメータ化される後方微分方程式(BSDEs)の解として定義する。
本稿では,建築設計による凸性などの重要な公理特性の強化のための建設的手法を提案する。
論文 参考訳(メタデータ) (2025-07-13T06:19:28Z) - Spectral-inspired Operator Learning with Limited Data and Unknown Physics [10.143396024546368]
スペクトルインスパイアされたニューラルオペレータ(SINO)は、明示的なPDE項を必要とせずに、わずか2-5軌道から複雑なシステムをモデル化することができる。
非線形効果をモデル化するために、SINOはスペクトル特性の乗法演算を行うPiブロックを用いており、エイリアスを抑制するためにローパスフィルタで補完される。
2次元PDEと3次元PDEのベンチマーク実験により、SINOは1-2桁の精度で最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2025-05-27T07:25:13Z) - Physics-informed reduced order model with conditional neural fields [4.5355909674008865]
本研究では、パラメータ化偏微分方程式(PDE)の解を近似するために、低次モデリング(CNF-ROM)フレームワークのための条件付きニューラルネットワークを提案する。
このアプローチは、潜伏状態からPDEソリューションを再構成するデコーダと、時間とともに潜伏ダイナミクスをモデル化するためのパラメトリックニューラルネットワークODEを組み合わせる。
論文 参考訳(メタデータ) (2024-12-06T18:04:33Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。