論文の概要: Learning Under Laws: A Constraint-Projected Neural PDE Solver that Eliminates Hallucinations
- arxiv url: http://arxiv.org/abs/2511.03578v1
- Date: Wed, 05 Nov 2025 16:01:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.476147
- Title: Learning Under Laws: A Constraint-Projected Neural PDE Solver that Eliminates Hallucinations
- Title(参考訳): 法の下での学習:幻覚を除去する制約計画型ニューラルPDEソルバー
- Authors: Mainak Singha,
- Abstract要約: ニューラルネットワークは偏微分方程式の解を近似することができるが、しばしばそれらがモデル化しようとする法則を破る。
私たちは、物理学の法則の傍らではなく、トレーニングによってこの問題に対処します。
私たちのフレームワークは、Constraint-Projected Learning (CPL)と呼ばれ、すべての更新を物理的に許容できる状態に保ちます。
- 参考スコア(独自算出の注目度): 4.693270291878929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks can approximate solutions to partial differential equations, but they often break the very laws they are meant to model-creating mass from nowhere, drifting shocks, or violating conservation and entropy. We address this by training within the laws of physics rather than beside them. Our framework, called Constraint-Projected Learning (CPL), keeps every update physically admissible by projecting network outputs onto the intersection of constraint sets defined by conservation, Rankine-Hugoniot balance, entropy, and positivity. The projection is differentiable and adds only about 10% computational overhead, making it fully compatible with back-propagation. We further stabilize training with total-variation damping (TVD) to suppress small oscillations and a rollout curriculum that enforces consistency over long prediction horizons. Together, these mechanisms eliminate both hard and soft violations: conservation holds at machine precision, total-variation growth vanishes, and entropy and error remain bounded. On Burgers and Euler systems, CPL produces stable, physically lawful solutions without loss of accuracy. Instead of hoping neural solvers will respect physics, CPL makes that behavior an intrinsic property of the learning process.
- Abstract(参考訳): ニューラルネットワークは偏微分方程式の解を近似することができるが、しばしば、どこにも存在しない、ドリフトする衝撃、あるいは保存とエントロピーに反するような質量をモデル化するための法則を破る。
私たちは、物理学の法則の傍らではなく、トレーニングによってこの問題に対処します。
我々のフレームワークであるConstraint-Projected Learning (CPL)は、ネットワーク出力を保存、ランキン・ホグニオートバランス、エントロピー、ポジティリティによって定義された制約セットの交点に投影することで、物理的に許容できるすべての更新を維持できる。
プロジェクションは微分可能で、計算オーバーヘッドは10%程度しか増加せず、バックプロパゲーションと完全に互換性がある。
さらに,小型振動を抑制するために全変量減衰(TVD)によるトレーニングを安定化し,長期予測地平線上での整合性を実現するロールアウトカリキュラムを開発した。
保存は機械の精度で保持され、全変量成長は消滅し、エントロピーとエラーは束縛されたままである。
バーガース系とオイラー系では、CPLは精度を失うことなく安定で物理的に合法な解を生成する。
ニューラルネットワークが物理学を尊重する代わりに、CPLはその振る舞いを学習プロセスの本質的な特性にする。
関連論文リスト
- Conditionally adaptive augmented Lagrangian method for physics-informed learning of forward and inverse problems using artificial neural networks [0.24578723416255746]
本稿では,物理・等式制約付きニューラルネットワーク(PECANN)フレームワークについて述べる。
拡張ラグランジアン法(ALM)を一般化し、複数の独立ペナルティパラメータをサポートする。
我々は、制約項に対する期待として、ポイントワイズ制約強制とラグランジュ乗算を再構成する。
論文 参考訳(メタデータ) (2025-08-21T16:22:40Z) - PhysicsCorrect: A Training-Free Approach for Stable Neural PDE Simulations [4.7903561901859355]
予測ステップ毎にPDE整合性を強制する,トレーニング不要な修正フレームワークであるNyberCorrectを提案する。
私たちの重要なイノベーションは、オフラインのウォームアップフェーズでJacobianとその擬似逆をプリ計算する効率的なキャッシュ戦略です。
3つの代表的なPDEシステムにおいて、物理コレクトは予測誤差を最大100倍に削減し、無視可能な推論時間を加算する。
論文 参考訳(メタデータ) (2025-07-03T01:22:57Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [73.52999622724101]
本稿では,自動微分と任意のジオメトリの正確な勾配を求める最初の手法であるモリファイドグラフニューラル演算子(m$GNO)を提案する。
正規格子上のPDEの例では、$m$GNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Coupled Integral PINN for conservation law [1.9720482348156743]
The Physics-Informed Neural Network (PINN) は、様々な偏微分方程式を解く革新的な手法である。
本稿では,ニューラルネットワークを用いた積分解方程式の組込みを含む,結合統合型PINN手法を提案する。
論文 参考訳(メタデータ) (2024-11-18T04:32:42Z) - A TVD neural network closure and application to turbulent combustion [1.374949083138427]
トレーニングニューラルネットワーク(NN)は、支配方程式を閉じるための魅力的な特徴を持っている。
NNの定式化は、溶液の有界性や陽性性に反する刺激発振を防止するために導入される。
離散化方程式に機械学習のクロージャとして組み込まれ、厳格に制約されている。
論文 参考訳(メタデータ) (2024-08-06T19:22:13Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。