論文の概要: Neural Functional: Learning Function to Scalar Maps for Neural PDE Surrogates
- arxiv url: http://arxiv.org/abs/2505.13275v1
- Date: Mon, 19 May 2025 15:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.71549
- Title: Neural Functional: Learning Function to Scalar Maps for Neural PDE Surrogates
- Title(参考訳): ニューラル関数:ニューラルPDEサロゲートのためのスカラーマップの学習機能
- Authors: Anthony Zhou, Amir Barati Farimani,
- Abstract要約: 本稿では,スカラーマッピングの関数を学習するPDEサロゲートの新しいアーキテクチャを提案する。
これは初めて、ハミルトニアン力学からニューラルPDEサロゲートへの拡張を可能にする。
- 参考スコア(独自算出の注目度): 7.136205674624813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many architectures for neural PDE surrogates have been proposed in recent years, largely based on neural networks or operator learning. In this work, we derive and propose a new architecture, the Neural Functional, which learns function to scalar mappings. Its implementation leverages insights from operator learning and neural fields, and we show the ability of neural functionals to implicitly learn functional derivatives. For the first time, this allows for an extension of Hamiltonian mechanics to neural PDE surrogates by learning the Hamiltonian functional and optimizing its functional derivatives. We demonstrate that the Hamiltonian Neural Functional can be an effective surrogate model through improved stability and conserving energy-like quantities on 1D and 2D PDEs. Beyond PDEs, functionals are prevalent in physics; functional approximation and learning with its gradients may find other uses, such as in molecular dynamics or design optimization.
- Abstract(参考訳): ニューラルPDEサロゲートのための多くのアーキテクチャが近年提案されており、主にニューラルネットワークや演算子学習に基づいている。
本研究では,スカラーマッピングの関数を学習するニューラル機能アーキテクチャを考案し,提案する。
その実装は、演算子学習とニューラルネットワークからの洞察を活用し、ニューラルネットワークが関数微分を暗黙的に学習する能力を示す。
これは初めて、ハミルトニアン力学を、ハミルトニアン汎函数を学習し、その汎函数微分を最適化することにより、神経PDEサロゲートに拡張することができる。
本研究では,ハミルトニアン・ニューラル・ファンクションが1次元PDEと2次元PDEの安定性の向上とエネルギー様量の保存を通じて,効果的なサロゲートモデルとなることを示した。
関数近似と勾配による学習は、分子動力学や設計最適化など、他の用途を見つけることができる。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Embedding Capabilities of Neural ODEs [0.0]
動的システム理論を用いたニューラルODEの入出力関係について検討する。
我々は,低次元および高次元の異なるニューラルODEアーキテクチャにおける写像の正確な埋め込みについて,いくつかの結果を証明した。
論文 参考訳(メタデータ) (2023-08-02T15:16:34Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Non-linear Functional Modeling using Neural Networks [6.624726878647541]
ニューラルネットワークに基づく関数型データのための非線形モデルの新たなクラスを導入する。
提案するフレームワークには,連続的な隠蔽層を持つ関数型ニューラルネットワークと,ベース拡張と連続隠蔽層を利用する第2バージョンという,2つのバリエーションがある。
論文 参考訳(メタデータ) (2021-04-19T14:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。