論文の概要: Neural State-Dependent Delay Differential Equations
- arxiv url: http://arxiv.org/abs/2306.14545v1
- Date: Mon, 26 Jun 2023 09:35:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 14:16:51.648598
- Title: Neural State-Dependent Delay Differential Equations
- Title(参考訳): ニューラル状態依存遅延微分方程式
- Authors: Thibault Monsel (DATAFLOT, TAU), Onofrio Semeraro (DATAFLOT), Lionel
Mathelin (DATAFLOT), Guillaume Charpiat (TAU)
- Abstract要約: 不連続性や遅延項は、物理学から医学まで、幅広い種類の問題の統治方程式で発生する。
我々は最近提案されたNeural State-Dependent DDE (SDDDE)を導入して、ニューラルDDEを再考する。
提案手法は競争力があり,様々な遅延力学系における他の連続クラスモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discontinuities and delayed terms are encountered in the governing equations
of a large class of problems ranging from physics, engineering, medicine to
economics. These systems are impossible to be properly modelled and simulated
with standard Ordinary Differential Equations (ODE), or any data-driven
approximation including Neural Ordinary Differential Equations (NODE). To
circumvent this issue, latent variables are typically introduced to solve the
dynamics of the system in a higher dimensional space and obtain the solution as
a projection to the original space. However, this solution lacks physical
interpretability. In contrast, Delay Differential Equations (DDEs) and their
data-driven, approximated counterparts naturally appear as good candidates to
characterize such complicated systems. In this work we revisit the recently
proposed Neural DDE by introducing Neural State-Dependent DDE (SDDDE), a
general and flexible framework featuring multiple and state-dependent delays.
The developed framework is auto-differentiable and runs efficiently on multiple
backends. We show that our method is competitive and outperforms other
continuous-class models on a wide variety of delayed dynamical systems.
- Abstract(参考訳): 不連続性や遅延項は、物理学、工学、医学、経済学など幅広い問題の制御方程式に遭遇する。
これらのシステムは、標準常微分方程式(ODE)やニューラル常微分方程式(NODE)を含むデータ駆動近似を用いて適切にモデル化およびシミュレーションすることは不可能である。
この問題を回避するために、潜伏変数は一般に高次元空間における系の力学を解き、元の空間への射影として解を得るために導入される。
しかし、この解は物理的解釈可能性に欠ける。
対照的に、DDE(Delay Differential Equations)とそのデータ駆動の近似方程式は、このような複雑なシステムを特徴づける良い候補として自然に現れる。
本稿では、複数および状態依存遅延を特徴とする汎用かつ柔軟なフレームワークであるNeural State-Dependent DDE(SDDDE)を導入することで、最近提案されたNeural DDEを再考する。
開発されたフレームワークは自動微分可能で、複数のバックエンド上で効率的に動作する。
提案手法は,様々な遅延力学系において,他の連続クラスモデルよりも優れていることを示す。
関連論文リスト
- Individualized Dosing Dynamics via Neural Eigen Decomposition [51.62933814971523]
ニューラル固有微分方程式アルゴリズム(NESDE)を導入する。
NESDEは個別化モデリング、新しい治療ポリシーへの調整可能な一般化、高速で連続的でクローズドな予測を提供する。
本研究は, 総合的・現実的な医療問題におけるNESDEの堅牢性を実証し, 学習力学を用いて, 模擬医療体育環境の公開を行う。
論文 参考訳(メタデータ) (2023-06-24T17:01:51Z) - Neural Delay Differential Equations: System Reconstruction and Image
Classification [14.59919398960571]
我々はニューラル遅延微分方程式 (Neural Delay Differential Equations, NDDEs) という,遅延を伴う連続深度ニューラルネットワークの新しいクラスを提案する。
NODE と比較して、NDDE はより強い非線形表現能力を持つ。
我々は、合成されたデータだけでなく、よく知られた画像データセットであるCIFAR10に対しても、損失の低減と精度の向上を実現している。
論文 参考訳(メタデータ) (2023-04-11T16:09:28Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Physics Informed RNN-DCT Networks for Time-Dependent Partial
Differential Equations [62.81701992551728]
時間依存偏微分方程式を解くための物理インフォームド・フレームワークを提案する。
我々のモデルは離散コサイン変換を用いて空間的および反復的なニューラルネットワークを符号化する。
ナヴィエ・ストークス方程式に対するテイラー・グリーン渦解の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-24T20:46:52Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - NeuralPDE: Modelling Dynamical Systems from Data [0.44259821861543996]
本稿では、畳み込みニューラルネットワーク(CNN)と微分可能なODEソルバを組み合わせて動的システムをモデル化するモデルであるNeuralPDEを提案する。
標準PDEソルバで使用されるラインの手法は、CNNが任意のPDEダイナミクスをパラメトリズする自然な選択となる畳み込みを用いて表現できることを示す。
我々のモデルは、PDEの管理に関する事前の知識を必要とせずに、あらゆるデータに適用することができる。
論文 参考訳(メタデータ) (2021-11-15T10:59:52Z) - Continuous Convolutional Neural Networks: Coupled Neural PDE and ODE [1.1897857181479061]
本研究では、物理システムの隠れた力学を学習できる畳み込みニューラルネットワーク(CNN)の変種を提案する。
画像や時系列などの物理系を複数の層からなるシステムとして考えるのではなく、微分方程式(DE)の形でシステムをモデル化することができる。
論文 参考訳(メタデータ) (2021-10-30T21:45:00Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Neural SDEs as Infinite-Dimensional GANs [18.07683058213448]
我々は、SDE の適合に対する現在の古典的アプローチが、(ワッサーシュタイン) GAN の特別な場合としてアプローチされることを示した。
我々は(現代の機械学習における)連続時間生成時系列モデルとしてニューラルSDEを得る。
論文 参考訳(メタデータ) (2021-02-06T19:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。