論文の概要: PMNN:Physical Model-driven Neural Network for solving time-fractional
differential equations
- arxiv url: http://arxiv.org/abs/2310.04788v1
- Date: Sat, 7 Oct 2023 12:43:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 15:36:16.560164
- Title: PMNN:Physical Model-driven Neural Network for solving time-fractional
differential equations
- Title(参考訳): PMNN:時間差分方程式を解くための物理モデル駆動ニューラルネットワーク
- Authors: Zhiying Ma, Jie Hou, Wenhao Zhu, Yaxin Peng and Ying Li
- Abstract要約: 時間差分方程式を解くために, 革新的物理モデル駆動ニューラルネットワーク (PMNN) 法を提案する。
ディープニューラルネットワーク(DNN)と分数微分の近似を効果的に組み合わせる。
- 参考スコア(独自算出の注目度): 17.66402435033991
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, an innovative Physical Model-driven Neural Network (PMNN)
method is proposed to solve time-fractional differential equations. It
establishes a temporal iteration scheme based on physical model-driven neural
networks which effectively combines deep neural networks (DNNs) with
interpolation approximation of fractional derivatives. Specifically, once the
fractional differential operator is discretized, DNNs are employed as a bridge
to integrate interpolation approximation techniques with differential
equations. On the basis of this integration, we construct a neural-based
iteration scheme. Subsequently, by training DNNs to learn this temporal
iteration scheme, approximate solutions to the differential equations can be
obtained. The proposed method aims to preserve the intrinsic physical
information within the equations as far as possible. It fully utilizes the
powerful fitting capability of neural networks while maintaining the efficiency
of the difference schemes for fractional differential equations. Moreover, we
validate the efficiency and accuracy of PMNN through several numerical
experiments.
- Abstract(参考訳): 本稿では,時間差分方程式の解法として,革新的物理モデル駆動ニューラルネットワーク(PMNN)を提案する。
これは、ディープニューラルネットワーク(DNN)と分数微分の補間近似を効果的に組み合わせた物理モデル駆動ニューラルネットワークに基づく時間的反復スキームを確立する。
具体的には、分数微分作用素が離散化されると、DNNは補間近似と微分方程式を統合するブリッジとして使用される。
この積分に基づいて、我々はニューラルベース反復スキームを構築する。
その後、この時間反復スキームを学ぶためにDNNを訓練することにより、微分方程式の近似解を得ることができる。
提案手法は,方程式内の固有物理情報を可能な限り保存することを目的としている。
分数微分方程式の差分スキームの効率を維持しつつ、ニューラルネットワークの強力な適合能力を完全に活用する。
さらに,いくつかの数値実験によりPMNNの有効性と精度を検証した。
関連論文リスト
- Chebyshev Spectral Neural Networks for Solving Partial Differential Equations [0.0]
この研究は、フィードフォワードニューラルネットワークモデルとエラーバックプロパゲーション原理を用いて、損失関数の計算に自動微分(AD)を利用する。
楕円偏微分方程式を用いて,CSNNモデルの数値効率と精度について検討し,よく知られた物理インフォームドニューラルネットワーク(PINN)法と比較した。
論文 参考訳(メタデータ) (2024-06-06T05:31:45Z) - HNS: An Efficient Hermite Neural Solver for Solving Time-Fractional
Partial Differential Equations [12.520882780496738]
時間-屈折偏微分方程式を解くための高精度ハーマイトニューラルソルバー(HNS)を提案する。
実験の結果,HNSは既存のL1法に比べて精度と柔軟性が著しく向上していることがわかった。
論文 参考訳(メタデータ) (2023-10-07T12:44:47Z) - Spectral-Bias and Kernel-Task Alignment in Physically Informed Neural
Networks [4.604003661048267]
物理情報ニューラルネットワーク(PINN)は微分方程式の解法として有望である。
この重要な問題に光を当てる包括的な理論的枠組みを提案する。
我々は、PINN予測を大容量データセット限界で支配する積分微分方程式を導出する。
論文 参考訳(メタデータ) (2023-07-12T18:00:02Z) - Splitting physics-informed neural networks for inferring the dynamics of
integer- and fractional-order neuron models [0.0]
分割法と物理情報ニューラルネットワーク(PINN)を組み合わせた微分方程式の前方解法を提案する。
提案手法はPINNを分割し,動的システムにPINNを適用するという課題に効果的に対処する。
論文 参考訳(メタデータ) (2023-04-26T00:11:00Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Partial Differential Equations is All You Need for Generating Neural Architectures -- A Theory for Physical Artificial Intelligence Systems [40.20472268839781]
我々は、統計物理学における反応拡散方程式、量子力学におけるシュル・オーディンガー方程式、同軸光学におけるヘルムホルツ方程式を一般化する。
数値解を求めるためにNPDEを離散化するために有限差分法を用いる。
多層パーセプトロン、畳み込みニューラルネットワーク、リカレントニューラルネットワークなど、ディープニューラルネットワークアーキテクチャの基本構築ブロックが生成される。
論文 参考訳(メタデータ) (2021-03-10T00:05:46Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。