論文の概要: DAE-HardNet: A Physics Constrained Neural Network Enforcing Differential-Algebraic Hard Constraints
- arxiv url: http://arxiv.org/abs/2512.05881v1
- Date: Fri, 05 Dec 2025 16:55:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:57.110178
- Title: DAE-HardNet: A Physics Constrained Neural Network Enforcing Differential-Algebraic Hard Constraints
- Title(参考訳): DAE-HardNet: 物理制約付きニューラルネットワーク
- Authors: Rahul Golder, Bimol Nath Roy, M. M. Faruque Hasan,
- Abstract要約: 物理制約付きニューラルネットワークであるDAE-HardNetを導入し,関数とその導関数を同時に学習する。
これは、モデル予測を微分可能な射影層を用いて制約多様体に射影することで達成される。
DAE-HardNetがパラメータ推定問題を通じて未知のパラメータを推定する能力を示す。
- 参考スコア(独自算出の注目度): 0.30586855806896046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional physics-informed neural networks (PINNs) do not always satisfy physics based constraints, especially when the constraints include differential operators. Rather, they minimize the constraint violations in a soft way. Strict satisfaction of differential-algebraic equations (DAEs) to embed domain knowledge and first-principles in data-driven models is generally challenging. This is because data-driven models consider the original functions to be black-box whose derivatives can only be obtained after evaluating the functions. We introduce DAE-HardNet, a physics-constrained (rather than simply physics-informed) neural network that learns both the functions and their derivatives simultaneously, while enforcing algebraic as well as differential constraints. This is done by projecting model predictions onto the constraint manifold using a differentiable projection layer. We apply DAE-HardNet to several systems and test problems governed by DAEs, including the dynamic Lotka-Volterra predator-prey system and transient heat conduction. We also show the ability of DAE-HardNet to estimate unknown parameters through a parameter estimation problem. Compared to multilayer perceptrons (MLPs) and PINNs, DAE-HardNet achieves orders of magnitude reduction in the physics loss while maintaining the prediction accuracy. It has the added benefits of learning the derivatives which improves the constrained learning of the backbone neural network prior to the projection layer. For specific problems, this suggests that the projection layer can be bypassed for faster inference. The current implementation and codes are available at https://github.com/SOULS-TAMU/DAE-HardNet.
- Abstract(参考訳): 従来の物理情報ニューラルネットワーク(PINN)は、特に微分演算子を含む場合、物理に基づく制約を必ずしも満たさない。
むしろ、制約違反をソフトな方法で最小化する。
データ駆動モデルにドメイン知識と第一原理を組み込むための微分代数方程式(DAE)の厳密な満足度は一般に困難である。
これは、データ駆動モデルが元の関数を、関数を評価した後のみ微分が得られるブラックボックスと見なしているためである。
DAE-HardNetは、物理に制約のある(単に物理学で表現された)ニューラルネットワークで、関数と微分の両方を同時に学習し、代数的制約と微分的制約を強制する。
これは、微分可能な射影層を用いてモデル予測を制約多様体に射影することで達成される。
DAE-HardNetをいくつかのシステムに適用し,動的ロトカ・ボルテラ捕食者・捕食・過渡熱伝導を含むDAEが支配する問題について検討した。
また,DAE-HardNetがパラメータ推定問題を通じて未知のパラメータを推定できることを示す。
多層パーセプトロン(MLP)やPINNと比較して、DAE-HardNetは予測精度を維持しつつ、物理損失の桁数を大幅に削減する。
プロジェクション層の前にバックボーンニューラルネットワークの制約付き学習を改善するデリバティブを学習するメリットが追加されている。
特定の問題に対して、このことはプロジェクション層を高速な推論のためにバイパスすることができることを示唆している。
現在の実装とコードはhttps://github.com/SOULS-TAMU/DAE-HardNetで公開されている。
関連論文リスト
- PEGNet: A Physics-Embedded Graph Network for Long-Term Stable Multiphysics Simulation [8.95344024479836]
偏微分方程式(PDE)によって支配される物理現象は、科学と工学の進歩にとって重要である。
PEGNetは物理埋め込みグラフネットワークであり、PDE誘導メッセージパスを再設計されたグラフニューラルネットワークアーキテクチャに組み込む。
従来の手法に比べて長期予測精度と物理的整合性に大きな改善が見られた。
論文 参考訳(メタデータ) (2025-11-11T19:02:16Z) - LaPON: A Lagrange's-mean-value-theorem-inspired operator network for solving PDEs and its application on NSE [8.014720523981385]
ラグランジュの平均値定理に着想を得た演算子ネットワークであるLaPONを提案する。
損失関数ではなく、ニューラルネットワークアーキテクチャに直接、事前の知識を組み込む。
LaPONは、高忠実度流体力学シミュレーションのためのスケーラブルで信頼性の高いソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-18T10:45:17Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - GradINN: Gradient Informed Neural Network [2.287415292857564]
物理情報ニューラルネットワーク(PINN)にヒントを得た手法を提案する。
GradINNは、システムの勾配に関する事前の信念を利用して、予測関数の勾配を全ての入力次元にわたって制限する。
非時間依存システムにまたがる多様な問題に対するGradINNの利点を実証する。
論文 参考訳(メタデータ) (2024-09-03T14:03:29Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Deep Physics Corrector: A physics enhanced deep learning architecture
for solving stochastic differential equations [0.0]
微分方程式(SDE)によって制御される物理系に対する新しいグレーボックスモデリングアルゴリズムを提案する。
提案手法はDeep Physics Corrector(DPC)と呼ばれ、SDEとDeep Neural Network(DNN)で表される近似物理学をブレンドする。
本論文では,本論文の4つのベンチマーク例について,提案したDPCの性能について述べる。
論文 参考訳(メタデータ) (2022-09-20T14:30:07Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Physics Informed RNN-DCT Networks for Time-Dependent Partial
Differential Equations [62.81701992551728]
時間依存偏微分方程式を解くための物理インフォームド・フレームワークを提案する。
我々のモデルは離散コサイン変換を用いて空間的および反復的なニューラルネットワークを符号化する。
ナヴィエ・ストークス方程式に対するテイラー・グリーン渦解の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-24T20:46:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。