論文の概要: Method of Manufactured Learning for Solver-free Training of Neural Operators
- arxiv url: http://arxiv.org/abs/2511.12890v1
- Date: Mon, 17 Nov 2025 02:24:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.61379
- Title: Method of Manufactured Learning for Solver-free Training of Neural Operators
- Title(参考訳): ニューラル演算子のソルバーフリートレーニングのための製造学習方法
- Authors: Arth Sojitra, Omer San,
- Abstract要約: Method of Manufactured Learning (MML)は、ニューラル演算子を訓練するためのソルバに依存しないフレームワークである。
MLは古典的な製造法にインスパイアされ、数値データ生成を関数合成に置き換える。
MMLは高いスペクトル精度、低い残差誤差、そして目に見えない条件への強い一般化を実現する。
- 参考スコア(独自算出の注目度): 0.24554686192257422
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Training neural operators to approximate mappings between infinite-dimensional function spaces often requires extensive datasets generated by either demanding experimental setups or computationally expensive numerical solvers. This dependence on solver-based data limits scalability and constrains exploration across physical systems. Here we introduce the Method of Manufactured Learning (MML), a solver-independent framework for training neural operators using analytically constructed, physics-consistent datasets. Inspired by the classical method of manufactured solutions, MML replaces numerical data generation with functional synthesis, i.e., smooth candidate solutions are sampled from controlled analytical spaces, and the corresponding forcing fields are derived by direct application of the governing differential operators. During inference, setting these forcing terms to zero restores the original governing equations, allowing the trained neural operator to emulate the true solution operator of the system. The framework is agnostic to network architecture and can be integrated with any operator learning paradigm. In this paper, we employ Fourier neural operator as a representative example. Across canonical benchmarks including heat, advection, Burgers, and diffusion-reaction equations. MML achieves high spectral accuracy, low residual errors, and strong generalization to unseen conditions. By reframing data generation as a process of analytical synthesis, MML offers a scalable, solver-agnostic pathway toward constructing physically grounded neural operators that retain fidelity to governing laws without reliance on expensive numerical simulations or costly experimental data for training.
- Abstract(参考訳): 無限次元関数空間間のマッピングを近似するニューラルネットワークの訓練には、実験的なセットアップを必要とするか、計算に高価な数値解法を必要とする。
このソルバベースのデータへの依存はスケーラビリティを制限し、物理的システムを横断して探索する。
本稿では、解析的に構築された物理一貫性のあるデータセットを用いてニューラルネットワークを訓練する、解法に依存しないフレームワークであるMML(Method of Manufactured Learning)を紹介する。
古典的な製造法に着想を得て、MMLは数値データ生成を関数合成に置き換える。すなわち、滑らかな候補解は制御された解析空間からサンプリングされ、対応する強制場は支配微分作用素の直接適用によって導かれる。
推論中、これらの強制項をゼロにすると、元の支配方程式が復元され、訓練されたニューラル演算子がシステムの真の解演算子をエミュレートする。
このフレームワークはネットワークアーキテクチャに非依存であり、任意のオペレータ学習パラダイムと統合することができる。
本稿では、代表的な例としてフーリエニューラル演算子を用いる。
熱、対流、バーガーズ、拡散反応方程式を含む全標準ベンチマーク。
MMLは高いスペクトル精度、低い残差誤差、そして目に見えない条件への強い一般化を実現する。
データ生成を分析合成のプロセスとして再定義することで、MMLは、高価な数値シミュレーションや訓練のための費用のかかる実験データに頼ることなく、法の支配に忠実さを維持する物理的基盤を持つニューラルネットワークを構築するための、スケーラブルで解決不可能な経路を提供する。
関連論文リスト
- Efficient Parametric SVD of Koopman Operator for Stochastic Dynamical Systems [51.54065545849027]
クープマン作用素は非線形力学系を解析するための原理的なフレームワークを提供する。
VAMPnet と DPNet はクープマン作用素の主特異部分空間を学ぶために提案されている。
我々は、クープマン作用素のトップ$kの特異関数を学ぶためのスケーラブルで概念的にシンプルな方法を提案する。
論文 参考訳(メタデータ) (2025-07-09T18:55:48Z) - Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
我々は、訓練されたニューラル演算子におけるベイズの不確実性定量化を近似するための新しいフレームワークLUNOを紹介する。
我々の手法はモデル線形化を利用して(ガウス的)重み空間の不確実性をニューラル作用素の予測に推し進める。
これは関数型プログラミングのカリー化の概念の確率的バージョンとして解釈でき、関数値(ガウス的)ランダムプロセスの信念を導出することを示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Variational operator learning: A unified paradigm marrying training
neural operators and solving partial differential equations [9.148052787201797]
ニューラル演算子を訓練し、変分形式でPDEを解くための統一的な枠組みを提供する新しいパラダイムを提案する。
ラベルなしのトレーニングセットと5ラベルのみのシフトセットにより、VOLは、未ラベルデータの量に関して、そのテストエラーが電力法則で減少して解演算子を学習する。
論文 参考訳(メタデータ) (2023-04-09T13:20:19Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。