論文の概要: Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain
- arxiv url: http://arxiv.org/abs/2206.04843v3
- Date: Tue, 14 Jun 2022 09:48:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 18:31:55.668951
- Title: Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain
- Title(参考訳): ニューラルラプラス:ラプラス領域における微分方程式の多様なクラスを学ぶ
- Authors: Samuel Holt, Zhaozhi Qian, Mihaela van der Schaar
- Abstract要約: 本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
- 参考スコア(独自算出の注目度): 86.52703093858631
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Ordinary Differential Equations model dynamical systems with ODEs
learned by neural networks. However, ODEs are fundamentally inadequate to model
systems with long-range dependencies or discontinuities, which are common in
engineering and biological systems. Broader classes of differential equations
(DE) have been proposed as remedies, including delay differential equations and
integro-differential equations. Furthermore, Neural ODE suffers from numerical
instability when modelling stiff ODEs and ODEs with piecewise forcing
functions. In this work, we propose Neural Laplace, a unified framework for
learning diverse classes of DEs including all the aforementioned ones. Instead
of modelling the dynamics in the time domain, we model it in the Laplace
domain, where the history-dependencies and discontinuities in time can be
represented as summations of complex exponentials. To make learning more
efficient, we use the geometrical stereographic map of a Riemann sphere to
induce more smoothness in the Laplace domain. In the experiments, Neural
Laplace shows superior performance in modelling and extrapolating the
trajectories of diverse classes of DEs, including the ones with complex history
dependency and abrupt changes.
- Abstract(参考訳): ニューラルネットワークで学習したODEを用いたニューラル正規微分方程式モデル
しかし、ODEは工学や生物学的システムに共通する長距離依存や不連続性を持つシステムをモデル化するには基本的に不十分である。
微分方程式の幅広いクラス (de) は、遅延微分方程式や積分微分方程式を含む修正として提案されている。
さらに、剛体ODEとODEを一方向強制関数でモデル化する場合、Neural ODEは数値不安定性に悩まされる。
本研究は,上記を含む多種多様なDESクラスを学習するための統一フレームワークであるNeural Laplaceを提案する。
時間領域のダイナミクスをモデル化するのではなく、ラプラス領域でモデル化し、時間における履歴依存性や不連続を複素指数関数の和として表すことができる。
学習をより効率的にするために、リーマン球面の幾何学的立体地図を用いてラプラス領域のより滑らかさを誘導する。
実験では、Neural Laplaceは、複雑な履歴依存や急激な変化を含む様々なDESクラスの軌道をモデル化および外挿する上で、優れた性能を示す。
関連論文リスト
- Neural Laplace for learning Stochastic Differential Equations [0.0]
Neuralplaceは多種多様な微分方程式(DE)を学習するための統一的なフレームワークである
DEの異なるクラスに対して、このフレームワークは通常の微分方程式(ODE)のクラスを学習することを目的としたニューラルネットワークに依存する他のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-06-07T14:29:30Z) - Neural Fractional Differential Equations [2.812395851874055]
FDE(Fractional Differential Equations)は、科学や工学において複雑なシステムをモデル化するための重要なツールである。
我々は、FDEをデータのダイナミックスに調整する新しいディープニューラルネットワークアーキテクチャであるNeural FDEを提案する。
論文 参考訳(メタデータ) (2024-03-05T07:45:29Z) - On Numerical Integration in Neural Ordinary Differential Equations [0.0]
本稿では,数値積分がニューラルネットワークモデルの学習に与える影響を明らかにするために,逆修正微分方程式(IMDE)を提案する。
ニューラルODEモデルのトレーニングは、真のODEではなく、IMDEの近似を実際に返すことが示されている。
論文 参考訳(メタデータ) (2022-06-15T07:39:01Z) - Physics Informed RNN-DCT Networks for Time-Dependent Partial
Differential Equations [62.81701992551728]
時間依存偏微分方程式を解くための物理インフォームド・フレームワークを提案する。
我々のモデルは離散コサイン変換を用いて空間的および反復的なニューラルネットワークを符号化する。
ナヴィエ・ストークス方程式に対するテイラー・グリーン渦解の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-24T20:46:52Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - On Neural Differential Equations [13.503274710499971]
特に、ニューラル微分方程式(NDE)は、ニューラルネットワークと微分方程式が同じコインの両側であることを示す。
NDEは生成問題、動的システム、時系列を扱うのに適している。
NDEは高容量関数近似、モデル空間への強い先行性、不規則なデータを扱う能力、メモリ効率、そして両サイドで利用可能な豊富な理論を提供する。
論文 参考訳(メタデータ) (2022-02-04T23:32:29Z) - Stiff Neural Ordinary Differential Equations [0.0]
我々はまず、ロバートソン問題における古典的な硬質ODEシステムにおける神経ODEの学習の課題を示す。
次に,ロバートソン問題と大気汚染問題の厳密なシステムにおける実証実験を行った。
論文 参考訳(メタデータ) (2021-03-29T05:24:56Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。