論文の概要: Neural Emulator Superiority: When Machine Learning for PDEs Surpasses its Training Data
- arxiv url: http://arxiv.org/abs/2510.23111v1
- Date: Mon, 27 Oct 2025 08:31:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.598899
- Title: Neural Emulator Superiority: When Machine Learning for PDEs Surpasses its Training Data
- Title(参考訳): ニューラルネットワークEmulator Superiority: PDEのための機械学習がトレーニングデータを超えたとき
- Authors: Felix Koehler, Nils Thuerey,
- Abstract要約: 我々は、高忠実度参照に対して評価すると、低忠実度ソルバデータに基づいて純粋にトレーニングされたニューラルネットワークが、それらのソルバよりも高い精度を達成することを示す。
標準的なニューラルネットワークを用いて、異なるPDE間でこの発見を実証的に検証する。
この研究は、エミュレータのベンチマークを再評価し、神経エミュレータが特定の運用体制内でのトレーニングソースよりも高い物理的忠実性を達成する可能性を示唆している。
- 参考スコア(独自算出の注目度): 28.57551605623958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators or emulators for PDEs trained on data from numerical solvers are conventionally assumed to be limited by their training data's fidelity. We challenge this assumption by identifying "emulator superiority," where neural networks trained purely on low-fidelity solver data can achieve higher accuracy than those solvers when evaluated against a higher-fidelity reference. Our theoretical analysis reveals how the interplay between emulator inductive biases, training objectives, and numerical error characteristics enables superior performance during multi-step rollouts. We empirically validate this finding across different PDEs using standard neural architectures, demonstrating that emulators can implicitly learn dynamics that are more regularized or exhibit more favorable error accumulation properties than their training data, potentially surpassing training data limitations and mitigating numerical artifacts. This work prompts a re-evaluation of emulator benchmarking, suggesting neural emulators might achieve greater physical fidelity than their training source within specific operational regimes. Project Page: https://tum-pbs.github.io/emulator-superiority
- Abstract(参考訳): 数値解法のデータに基づいてトレーニングされたPDEのニューラル演算子やエミュレータは、従来、トレーニングデータの忠実さによって制限されていると仮定されている。
低忠実度ソルバデータに基づいて純粋にトレーニングされたニューラルネットワークが、高忠実度レファレンスに対して評価した場合に、それらのソルバよりも高い精度を達成できる「エミュレータ優越性」を同定することで、この仮定に挑戦する。
理論的解析により,エミュレータの誘導バイアス,訓練目標,数値誤差特性との相互作用が,マルチステップロールアウト時の優れた性能を実現することを示す。
我々は、標準的なニューラルネットワークを使用して異なるPDEにまたがるこの発見を実証的に検証し、エミュレータがトレーニングデータよりも規則化されたり、より好ましいエラー蓄積特性を示すようなダイナミクスを暗黙的に学習できることを示し、トレーニングデータ制限を超越し、数値アーティファクトを緩和する可能性があることを実証した。
この研究は、エミュレータのベンチマークを再評価し、神経エミュレータが特定の運用体制内でのトレーニングソースよりも高い物理的忠実性を達成する可能性を示唆している。
Project Page: https://tum-pbs.github.io/emulator-superiority
関連論文リスト
- LLMs as Scalable, General-Purpose Simulators For Evolving Digital Agent Training [55.72784274656801]
構造化されたUI状態と遷移を生成するスケーラブルなパラダイムを導入し、大規模にトレーニングトラジェクトリを合成する。
このパラダイムは、多様なUI状態のためのデジタルワールドシミュレータ、コヒーレント探索のためのガイド付きロールアウトプロセス、軌道ラッパーを統合している。
WebArenaとAndroidWorldの実験では、UI-Simulatorは実際のUIでトレーニングされたオープンソースエージェントと競合するか、あるいは超越している。
論文 参考訳(メタデータ) (2025-10-16T17:59:38Z) - Data-Augmented Few-Shot Neural Emulator for Computer-Model System Identification [20.49905192303411]
部分方程式 (Partial equations, PDE) は、多くの自然および工学的なシステムのモデリングである。
ニューラルネットワーク表現でPDEの支配方程式の一部または全部を置き換えることで、ニューラルPDEのようなモデルを表現するのが便利である。
本稿では,コンピュータモデルからニューラルPDEトレーニングデータを生成するための,より効率的なデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2025-08-26T21:22:11Z) - Model-Agnostic Knowledge Guided Correction for Improved Neural Surrogate Rollout [3.006104092368596]
本稿では,ニューラルサロゲート,RL決定モデル,物理シミュレータを組み合わせることで,ロールアウト誤差を大幅に低減するモデルに依存しないコスト認識モデルを提案する。
HyPERは、物理的条件の変化に適応し、騒音の破損に抵抗するインテリジェントなポリシーを学ぶ。
論文 参考訳(メタデータ) (2025-03-13T05:00:23Z) - Data-Efficient Operator Learning via Unsupervised Pretraining and In-Context Learning [45.78096783448304]
本研究では,PDE演算子学習のための教師なし事前学習を設計する。
シミュレーションソリューションを使わずにラベルなしのPDEデータをマイニングし、物理に着想を得た再構成ベースのプロキシタスクでニューラルネットワークを事前訓練する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Continual learning autoencoder training for a particle-in-cell
simulation via streaming [52.77024349608834]
今後のエクサスケール時代は 次世代の物理シミュレーションを 高解像度で提供します
これらのシミュレーションは高解像度であり、ディスク上に大量のシミュレーションデータを格納することはほぼ不可能であるため、機械学習モデルのトレーニングに影響を与える。
この研究は、ディスク上のデータなしで、実行中のシミュレーションにニューラルネットワークを同時にトレーニングするアプローチを示す。
論文 参考訳(メタデータ) (2022-11-09T09:55:14Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Designing Accurate Emulators for Scientific Processes using
Calibration-Driven Deep Models [33.935755695805724]
Learn-by-Calibrating (LbC)は、科学応用においてエミュレータを設計するための新しいディープラーニングアプローチである。
また,LbCは広く適応された損失関数の選択に対して,一般化誤差を大幅に改善することを示した。
LbCは、小さなデータレギュレータでも高品質なエミュレータを実現し、さらに重要なことは、明確な事前条件なしで固有のノイズ構造を復元する。
論文 参考訳(メタデータ) (2020-05-05T16:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。