論文の概要: Out-of-Distribution Generalization for Neural Physics Solvers
- arxiv url: http://arxiv.org/abs/2601.19091v1
- Date: Tue, 27 Jan 2026 01:57:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.121871
- Title: Out-of-Distribution Generalization for Neural Physics Solvers
- Title(参考訳): ニューラル物理解のアウト・オブ・ディストリビューション一般化
- Authors: Zhao Wei, Chin Chun Ooi, Jian Cheng Wong, Abhishek Gupta, Pao-Hsiung Chiu, Yew-Soon Ong,
- Abstract要約: 一般化可能なニューラルネットワーク解法であるNOVAを導入する。
初期のまばらなシナリオから物理に整合した表現を学習することにより、NOVAは一貫して1~2桁の分配誤差を減少させる。
- 参考スコア(独自算出の注目度): 33.82671563261631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural physics solvers are increasingly used in scientific discovery, given their potential for rapid in silico insights into physical, materials, or biological systems and their long-time evolution. However, poor generalization beyond their training support limits exploration of novel designs and long-time horizon predictions. We introduce NOVA, a route to generalizable neural physics solvers that can provide rapid, accurate solutions to scenarios even under distributional shifts in partial differential equation parameters, geometries and initial conditions. By learning physics-aligned representations from an initial sparse set of scenarios, NOVA consistently achieves 1-2 orders of magnitude lower out-of-distribution errors than data-driven baselines across complex, nonlinear problems including heat transfer, diffusion-reaction and fluid flow. We further showcase NOVA's dual impact on stabilizing long-time dynamical rollouts and improving generative design through application to the simulation of nonlinear Turing systems and fluidic chip optimization. Unlike neural physics solvers that are constrained to retrieval and/or emulation within an a priori space, NOVA enables reliable extrapolation beyond known regimes, a key capability given the need for exploration of novel hypothesis spaces in scientific discovery
- Abstract(参考訳): 神経物理学の解法は、物理系、物質系、生物系に関する素早いシリコの洞察と、その長期進化の可能性を考慮し、科学的な発見にますます利用されている。
しかし、訓練支援以外の一般化の貧弱さは、新しい設計の探索と長期の地平線予測を制限している。
偏微分方程式パラメータやジオメトリ,初期条件の分布シフト下であっても,シナリオに対して迅速かつ正確な解を提供できる,一般化可能なニューラルネットワーク解法であるNOVAを導入する。
初期スパースなシナリオから物理配向表現を学習することにより、NOVAは熱伝達、拡散反応、流動を含む複雑な非線形問題にまたがるデータ駆動ベースラインよりも1~2桁のアウト・オブ・ディストリビューション誤差を小さくする。
さらに,NOVAの長期動的ロールアウト安定化に対する二重効果と,非線形チューリングシステムのシミュレーションと流動チップ最適化の適用による生成設計の改善について述べる。
先行空間内での検索やエミュレーションに制約される神経物理学の解法とは異なり、NOVAは既知の状態を超えた信頼できる外挿を可能にする。
関連論文リスト
- Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Neural Ordinary Differential Equations for Data-Driven Reduced Order
Modeling of Environmental Hydrodynamics [4.547988283172179]
流体シミュレーションにおける神経常微分方程式の利用について検討する。
テスト問題としては,シリンダー周辺の非圧縮性流れや河川・河口系における浅水流体力学の現実的応用などが挙げられる。
本研究では,ニューラル ODE が潜在空間力学の安定かつ正確な進化のためのエレガントな枠組みを提供することを示唆する。
論文 参考訳(メタデータ) (2021-04-22T19:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。