論文の概要: HNS: An Efficient Hermite Neural Solver for Solving Time-Fractional
Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2310.04789v1
- Date: Sat, 7 Oct 2023 12:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 15:36:42.286470
- Title: HNS: An Efficient Hermite Neural Solver for Solving Time-Fractional
Partial Differential Equations
- Title(参考訳): HNS:時間的部分微分方程式を解くための効率的なエルマイトニューラルネットワーク
- Authors: Jie Hou, Zhiying Ma, Shihui Ying and Ying Li
- Abstract要約: 時間-屈折偏微分方程式を解くための高精度ハーマイトニューラルソルバー(HNS)を提案する。
実験の結果,HNSは既存のL1法に比べて精度と柔軟性が著しく向上していることがわかった。
- 参考スコア(独自算出の注目度): 12.520882780496738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network solvers represent an innovative and promising approach for
tackling time-fractional partial differential equations by utilizing deep
learning techniques. L1 interpolation approximation serves as the standard
method for addressing time-fractional derivatives within neural network
solvers. However, we have discovered that neural network solvers based on L1
interpolation approximation are unable to fully exploit the benefits of neural
networks, and the accuracy of these models is constrained to interpolation
errors. In this paper, we present the high-precision Hermite Neural Solver
(HNS) for solving time-fractional partial differential equations. Specifically,
we first construct a high-order explicit approximation scheme for fractional
derivatives using Hermite interpolation techniques, and rigorously analyze its
approximation accuracy. Afterward, taking into account the infinitely
differentiable properties of deep neural networks, we integrate the high-order
Hermite interpolation explicit approximation scheme with deep neural networks
to propose the HNS. The experimental results show that HNS achieves higher
accuracy than methods based on the L1 scheme for both forward and inverse
problems, as well as in high-dimensional scenarios. This indicates that HNS has
significantly improved accuracy and flexibility compared to existing L1-based
methods, and has overcome the limitations of explicit finite difference
approximation methods that are often constrained to function value
interpolation. As a result, the HNS is not a simple combination of numerical
computing methods and neural networks, but rather achieves a complementary and
mutually reinforcing advantages of both approaches. The data and code can be
found at \url{https://github.com/hsbhc/HNS}.
- Abstract(参考訳): ニューラルネットワークソルバは、深層学習技術を利用して時間分割偏微分方程式に取り組むための革新的で有望なアプローチである。
L1補間近似は、ニューラルネットワークソルバ内の時間-屈折微分に対処する標準的な方法である。
しかし,l1補間近似に基づくニューラルネットワークソルバは,ニューラルネットワークの利点を十分に活用できず,それらのモデルの精度は補間誤差に制約されていることがわかった。
本稿では,時間-屈折偏微分方程式を解くための高精度エルマイトニューラルソルバー(HNS)を提案する。
具体的には,Hermite補間法による分数導関数の高次明示近似法を構築し,その近似精度を厳密に解析する。
その後、深部ニューラルネットワークの無限微分可能特性を考慮して、高次ヘルミット補間明示近似スキームを深部ニューラルネットワークと統合し、HNSを提案する。
実験結果から,HNSは前向きおよび逆問題および高次元シナリオにおけるL1スキームに基づく手法よりも高い精度を実現することが示された。
このことは、HNSが既存のL1法と比較して精度と柔軟性を著しく改善し、関数値補間に制約されるような明示的な有限差分近似法の限界を克服したことを示している。
その結果、HNSは数値計算法とニューラルネットワークの単純な組み合わせではなく、両方のアプローチの利点を補完的かつ相互に強化する。
データとコードは \url{https://github.com/hsbhc/HNS} で見ることができる。
関連論文リスト
- Chebyshev Spectral Neural Networks for Solving Partial Differential Equations [0.0]
この研究は、フィードフォワードニューラルネットワークモデルとエラーバックプロパゲーション原理を用いて、損失関数の計算に自動微分(AD)を利用する。
楕円偏微分方程式を用いて,CSNNモデルの数値効率と精度について検討し,よく知られた物理インフォームドニューラルネットワーク(PINN)法と比較した。
論文 参考訳(メタデータ) (2024-06-06T05:31:45Z) - PMNN:Physical Model-driven Neural Network for solving time-fractional
differential equations [17.66402435033991]
時間差分方程式を解くために, 革新的物理モデル駆動ニューラルネットワーク (PMNN) 法を提案する。
ディープニューラルネットワーク(DNN)と分数微分の近似を効果的に組み合わせる。
論文 参考訳(メタデータ) (2023-10-07T12:43:32Z) - A new approach to generalisation error of machine learning algorithms:
Estimates and convergence [0.0]
本稿では,(一般化)誤差の推定と収束に対する新しいアプローチを提案する。
本研究の結果は,ニューラルネットワークの構造的仮定を伴わない誤差の推定を含む。
論文 参考訳(メタデータ) (2023-06-23T20:57:31Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Hierarchical Learning to Solve Partial Differential Equations Using
Physics-Informed Neural Networks [2.0305676256390934]
偏微分方程式に対するニューラルネットワーク解の収束率と精度を改善するための階層的手法を提案する。
線形偏微分方程式と非線形偏微分方程式の組によって提案した階層的手法の効率性とロバスト性を検証する。
論文 参考訳(メタデータ) (2021-12-02T13:53:42Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。