論文の概要: Deep learning delay coordinate dynamics for chaotic attractors from
partial observable data
- arxiv url: http://arxiv.org/abs/2211.11061v1
- Date: Sun, 20 Nov 2022 19:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 23:04:01.407970
- Title: Deep learning delay coordinate dynamics for chaotic attractors from
partial observable data
- Title(参考訳): 部分観測データからのカオスアトラクタの深層学習遅延座標ダイナミクス
- Authors: Charles D. Young and Michael D. Graham
- Abstract要約: 深層ニューラルネットワークを用いて離散時間マップと部分状態の連続時間フローを学習する。
我々は, 3次元多様体上のスカラー観測から, ロレンツ系を経由したカオス挙動を予測するために, 深部ANNの能力を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common problem in time series analysis is to predict dynamics with only
scalar or partial observations of the underlying dynamical system. For data on
a smooth compact manifold, Takens theorem proves a time delayed embedding of
the partial state is diffeomorphic to the attractor, although for chaotic and
highly nonlinear systems learning these delay coordinate mappings is
challenging. We utilize deep artificial neural networks (ANNs) to learn
discrete discrete time maps and continuous time flows of the partial state.
Given training data for the full state, we also learn a reconstruction map.
Thus, predictions of a time series can be made from the current state and
several previous observations with embedding parameters determined from time
series analysis. The state space for time evolution is of comparable dimension
to reduced order manifold models. These are advantages over recurrent neural
network models, which require a high dimensional internal state or additional
memory terms and hyperparameters. We demonstrate the capacity of deep ANNs to
predict chaotic behavior from a scalar observation on a manifold of dimension
three via the Lorenz system. We also consider multivariate observations on the
Kuramoto-Sivashinsky equation, where the observation dimension required for
accurately reproducing dynamics increases with the manifold dimension via the
spatial extent of the system.
- Abstract(参考訳): 時系列解析における一般的な問題は、基礎となる力学系のスカラーまたは部分的観測だけでダイナミクスを予測することである。
滑らかなコンパクト多様体上のデータに対して、テイクの定理は部分状態の時間遅延埋め込みがアトラクターに二相同であることを証明するが、カオスおよび高非線形系ではこれらの遅延座標写像を学ぶことは困難である。
我々は、深層人工ニューラルネットワーク(ANN)を用いて、離散時間マップと部分状態の連続時間フローを学習する。
完全な状態のトレーニングデータがあれば、再構築マップも学べる。
これにより、時系列解析から決定された埋め込みパラメータを用いて、現在の状態と過去の観測から時系列の予測を行うことができる。
時間発展の状態空間は縮小次多様体モデルに匹敵する次元である。
これらは、高次元の内部状態や追加のメモリ項やハイパーパラメータを必要とするリカレントニューラルネットワークモデルよりも優れている。
我々は,3次元多様体上のスカラー観測から,ロレンツ系によるカオス挙動を予測するための深部ANNの能力を示す。
また, 力学を正確に再現するために必要な観測次元は, 系の空間的範囲を通じて, 多様体次元とともに増加する。
関連論文リスト
- Autoregressive with Slack Time Series Model for Forecasting a
Partially-Observed Dynamical Time Series [3.0232957374216953]
本稿では、進化関数を同時に推定し、欠落変数をスラック時系列として暗示する自己回帰型とスラック時系列(ARS)モデルを提案する。
理論的な見地から、2次元の時間不変系と線形系は、系の1つの部分的に観察された次元からの観測を利用して再構成可能であることを証明した。
論文 参考訳(メタデータ) (2023-06-28T23:07:43Z) - STONet: A Neural-Operator-Driven Spatio-temporal Network [38.5696882090282]
グラフベースのグラフ時間ニューラルネットワークは、不規則にサンプリングされた離散点間の空間依存性をモデル化するのに有効である。
本稿では,空間連続的な物理量の力学を規定するメカニズムを学習する,PDEのためのニューラル演算子に基づく時間的枠組みを提案する。
実験では,空間的連続的な物理量の予測におけるモデルの性能と,時間的不規則なデータの処理能力に優れていた。
論文 参考訳(メタデータ) (2022-04-18T17:20:12Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Time Series Forecasting with Ensembled Stochastic Differential Equations
Driven by L\'evy Noise [2.3076895420652965]
我々は、ニューラルネットワークを備えたSDEの集合を用いて、ノイズのある時系列の長期的な傾向を予測する。
まず、位相空間再構成法を用いて時系列データの固有次元を抽出する。
次に、$alpha$-stable L'evyの動作によって駆動されるSDEを探索し、時系列データをモデル化し、ニューラルネットワーク近似を用いて問題を解く。
論文 参考訳(メタデータ) (2021-11-25T16:49:01Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Stochastically forced ensemble dynamic mode decomposition for
forecasting and analysis of near-periodic systems [65.44033635330604]
本稿では,観測力学を強制線形系としてモデル化した新しい負荷予測手法を提案する。
固有線型力学の利用は、解釈可能性やパーシモニーの観点から、多くの望ましい性質を提供することを示す。
電力グリッドからの負荷データを用いたテストケースの結果が提示される。
論文 参考訳(メタデータ) (2020-10-08T20:25:52Z) - Time-Reversal Symmetric ODE Network [138.02741983098454]
時間反転対称性は古典力学や量子力学においてしばしば保持される基本的な性質である。
本稿では,通常の微分方程式(ODE)ネットワークがこの時間反転対称性にどの程度よく適合しているかを測定する新しい損失関数を提案する。
時間反転対称性を完全に持たないシステムであっても, TRS-ODEN はベースラインよりも優れた予測性能が得られることを示す。
論文 参考訳(メタデータ) (2020-07-22T12:19:40Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z) - Learning Continuous-Time Dynamics by Stochastic Differential Networks [32.63114111531396]
変動微分ネットワーク(VSDN)という,フレキシブルな連続時間リカレントニューラルネットワークを提案する。
VSDNは神経微分方程式(SDE)による散発時間系列の複雑なダイナミクスを埋め込む
VSDNは最先端の継続的ディープラーニングモデルより優れており、散発時系列の予測やタスクにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-06-11T01:40:34Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。