論文の概要: Hamiltonian Neural PDE Solvers through Functional Approximation
- arxiv url: http://arxiv.org/abs/2505.13275v2
- Date: Mon, 29 Sep 2025 14:43:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 20:10:04.324581
- Title: Hamiltonian Neural PDE Solvers through Functional Approximation
- Title(参考訳): 関数近似によるハミルトンニューラルPDE解法
- Authors: Anthony Zhou, Amir Barati Farimani,
- Abstract要約: ハミルトンニューラルネットワークは、物理系において保存法則が尊重されるように、原則化された方法を提供する。
本研究では、ハミルトニアン汎函数を、ニューラルネットワークによってパラメータ化されたカーネル積分として表現する。
これにより、勾配領域における機能的および学習を予測することにより、ハミルトン力学をニューラルPDEソルバに拡張することができる。
- 参考スコア(独自算出の注目度): 11.478292682955669
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing neural networks within a Hamiltonian framework offers a principled way to ensure that conservation laws are respected in physical systems. While promising, these capabilities have been largely limited to discrete, analytically solvable systems. In contrast, many physical phenomena are governed by PDEs, which govern infinite-dimensional fields through Hamiltonian functionals and their functional derivatives. Building on prior work, we represent the Hamiltonian functional as a kernel integral parameterized by a neural field, enabling learnable function-to-scalar mappings and the use of automatic differentiation to calculate functional derivatives. This allows for an extension of Hamiltonian mechanics to neural PDE solvers by predicting a functional and learning in the gradient domain. We show that the resulting Hamiltonian Neural Solver (HNS) can be an effective surrogate model through improved stability and conserving energy-like quantities across 1D and 2D PDEs. This ability to respect conservation laws also allows HNS models to better generalize to longer time horizons or unseen initial conditions.
- Abstract(参考訳): ハミルトニアンフレームワーク内でニューラルネットワークを設計することは、物理システムにおいて保存法則が尊重されることを保証するための原則化された方法を提供する。
有望ではあるが、これらの能力は、主に離散的で解析的に解決可能なシステムに限られている。
対照的に、多くの物理現象は PDE によって支配され、ハミルトン汎函数とその汎函数微分を通じて無限次元の場を支配する。
先行研究に基づいて、我々はハミルトニアン関数を、ニューラルネットワークによってパラメータ化されたカーネル積分として表現し、学習可能な関数-スカラーマッピングと、関数微分の計算に自動微分を用いることを可能にした。
これにより、勾配領域における機能的および学習を予測することにより、ハミルトン力学をニューラルPDEソルバに拡張することができる。
得られたハミルトニアンニューラルソルバー (HNS) は, 安定性の向上と1次元PDEと2次元PDEのエネルギー様量の保存を通じて, 効果的なサロゲートモデルであることを示す。
この保存法則を尊重する能力により、HNSモデルはより長い時間的地平線や目に見えない初期条件をより一般化することができる。
関連論文リスト
- Principled Approaches for Extending Neural Architectures to Function Spaces for Operator Learning [78.88684753303794]
ディープラーニングは主にコンピュータビジョンと自然言語処理の応用を通じて進歩してきた。
ニューラル演算子は、関数空間間のマッピングにニューラルネットワークを一般化する原則的な方法である。
本稿では、無限次元関数空間間の写像の実践的な実装を構築するための鍵となる原理を同定し、蒸留する。
論文 参考訳(メタデータ) (2025-06-12T17:59:31Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Approximation of RKHS Functionals by Neural Networks [30.42446856477086]
ニューラルネットワークを用いたHilbert空間(RKHS)を再現するカーネル上の関数の近似について検討する。
逆多重四元数、ガウス、ソボレフのカーネルによって誘導される場合の明示的な誤差境界を導出する。
ニューラルネットワークが回帰マップを正確に近似できることを示すため,機能回帰に本研究の成果を適用した。
論文 参考訳(メタデータ) (2024-03-18T18:58:23Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Embedding Capabilities of Neural ODEs [0.0]
動的システム理論を用いたニューラルODEの入出力関係について検討する。
我々は,低次元および高次元の異なるニューラルODEアーキテクチャにおける写像の正確な埋め込みについて,いくつかの結果を証明した。
論文 参考訳(メタデータ) (2023-08-02T15:16:34Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Non-linear Functional Modeling using Neural Networks [6.624726878647541]
ニューラルネットワークに基づく関数型データのための非線形モデルの新たなクラスを導入する。
提案するフレームワークには,連続的な隠蔽層を持つ関数型ニューラルネットワークと,ベース拡張と連続隠蔽層を利用する第2バージョンという,2つのバリエーションがある。
論文 参考訳(メタデータ) (2021-04-19T14:59:55Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。