論文の概要: A Deep Neural Network Framework for Solving Forward and Inverse Problems in Delay Differential Equations
- arxiv url: http://arxiv.org/abs/2408.09202v2
- Date: Sat, 24 Aug 2024 16:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 12:52:18.339910
- Title: A Deep Neural Network Framework for Solving Forward and Inverse Problems in Delay Differential Equations
- Title(参考訳): 遅延微分方程式におけるフォワードと逆問題の解法のためのディープニューラルネットワークフレームワーク
- Authors: Housen Wang, Yuxing Chen, Sirong Cao, Xiaoli Wang, Qiang Liu,
- Abstract要約: ディープニューラルネットワーク(DNN)に基づく遅延微分方程式(DDE)の統合フレームワークを提案する。
このフレームワークは、DDEの多様な要件を満たすために遅延微分方程式をニューラルネットワークに埋め込むことができる。
逆問題に対処する際、NDDEフレームワークは観測データを利用して単一の遅延パラメータや複数の遅延パラメータを正確に推定することができる。
- 参考スコア(独自算出の注目度): 12.888147363070749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a unified framework for delay differential equations (DDEs) based on deep neural networks (DNNs) - the neural delay differential equations (NDDEs), aimed at solving the forward and inverse problems of delay differential equations. This framework could embed delay differential equations into neural networks to accommodate the diverse requirements of DDEs in terms of initial conditions, control equations, and known data. NDDEs adjust the network parameters through automatic differentiation and optimization algorithms to minimize the loss function, thereby obtaining numerical solutions to the delay differential equations without the grid dependence and polynomial interpolation typical of traditional numerical methods. In addressing inverse problems, the NDDE framework can utilize observational data to perform precise estimation of single or multiple delay parameters, which is very important in practical mathematical modeling. The results of multiple numerical experiments have shown that NDDEs demonstrate high precision in both forward and inverse problems, proving their effectiveness and promising potential in dealing with delayed differential equation issues.
- Abstract(参考訳): 本稿では,ディープニューラルネットワーク(DNN)に基づく遅延微分方程式(DDE)の統合フレームワークを提案する。
このフレームワークは、遅延微分方程式をニューラルネットワークに埋め込んで、初期条件、制御方程式、既知のデータの観点からDDEの多様な要件を満たすことができる。
NDDEは、損失関数を最小化する自動微分および最適化アルゴリズムによりネットワークパラメータを調整し、従来の数値法に典型的な格子依存や多項式補間を伴わない遅延微分方程式の数値解を得る。
逆問題に対処する際、NDDEフレームワークは観測データを利用して単一の遅延パラメータや複数の遅延パラメータを正確に推定することができる。
複数の数値実験の結果、NDDEは前方および逆問題の両方において高い精度を示し、その有効性と、遅れた微分方程式問題に対処する有望な可能性を証明している。
関連論文リスト
- MultiPDENet: PDE-embedded Learning with Multi-time-stepping for Accelerated Flow Simulation [48.41289705783405]
マルチスケールタイムステップ(MultiPDENet)を用いたPDE組み込みネットワークを提案する。
特に,有限差分構造に基づく畳み込みフィルタを少数のパラメータで設計し,最適化する。
4階ランゲ・クッタ積分器を微細な時間スケールで備えた物理ブロックが確立され、PDEの構造を埋め込んで予測を導出する。
論文 参考訳(メタデータ) (2025-01-27T12:15:51Z) - Reduced-order modeling for parameterized PDEs via implicit neural
representations [4.135710717238787]
我々は、パラメータ化偏微分方程式(PDE)を効率的に解くために、新しいデータ駆動型低次モデリング手法を提案する。
提案フレームワークは、PDEを符号化し、パラメトリゼーションニューラルネットワーク(PNODE)を用いて、複数のPDEパラメータを特徴とする潜時ダイナミクスを学習する。
我々は,提案手法を大規模なレイノルズ数で評価し,O(103)の高速化と,基底真理値に対する1%の誤差を得る。
論文 参考訳(メタデータ) (2023-11-28T01:35:06Z) - Time and State Dependent Neural Delay Differential Equations [0.5249805590164901]
遅れた用語は、物理学や工学から医学、経済学まで、幅広い種類の問題の統治方程式で遭遇する。
複数および状態依存の遅延と時間依存の遅延をモデル化できるフレームワークであるNeural State-Dependent DDEを導入する。
提案手法は競争力があり,様々な遅延力学系における他の連続クラスモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-26T09:35:56Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Learning the Delay Using Neural Delay Differential Equations [0.5505013339790825]
遅延微分方程式(DDE)に基づく連続時間ニューラルネットワークアプローチを開発する。
我々のモデルは随伴感度法を用いてモデルパラメータを学習し、データから直接遅延する。
我々は今後の方向性と応用について議論をまとめる。
論文 参考訳(メタデータ) (2023-04-03T19:50:36Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - High Precision Differentiation Techniques for Data-Driven Solution of
Nonlinear PDEs by Physics-Informed Neural Networks [0.0]
本稿では,初期条件が与えられた時間依存部分微分方程式について考察する。
時間変数に対する未知解の新しい微分手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T13:36:01Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Neural Delay Differential Equations [9.077775405204347]
ニューラル遅延微分方程式 (N Neural Delay Differential Equations, NDDEs) と呼ばれる遅延を持つ連続深層ニューラルネットワークの新しいクラスを提案する。
対応する勾配を計算するために,随伴感度法を用いて随伴の遅延ダイナミクスを得る。
この結果から,動的システムの要素をネットワーク設計に適切に表現することは,ネットワーク性能の促進に真に有益であることが判明した。
論文 参考訳(メタデータ) (2021-02-22T06:53:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。