論文の概要: Deep State Space Recurrent Neural Networks for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2407.15236v1
- Date: Sun, 21 Jul 2024 17:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 18:39:18.880524
- Title: Deep State Space Recurrent Neural Networks for Time Series Forecasting
- Title(参考訳): 時系列予測のためのDeep State Space Recurrent Neural Networks
- Authors: Hugo Inzirillo,
- Abstract要約: 本稿では,固有状態空間モデルの原理とリカレントニューラルネットワーク(RNN)の動的機能とを融合した新しいニューラルネットワークフレームワークを提案する。
結果によると、Kolmogorov-Arnold Networks(KAN)とLSTMにインスパイアされたTKANは、有望な結果を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We explore various neural network architectures for modeling the dynamics of the cryptocurrency market. Traditional linear models often fall short in accurately capturing the unique and complex dynamics of this market. In contrast, Deep Neural Networks (DNNs) have demonstrated considerable proficiency in time series forecasting. This papers introduces novel neural network framework that blend the principles of econometric state space models with the dynamic capabilities of Recurrent Neural Networks (RNNs). We propose state space models using Long Short Term Memory (LSTM), Gated Residual Units (GRU) and Temporal Kolmogorov-Arnold Networks (TKANs). According to the results, TKANs, inspired by Kolmogorov-Arnold Networks (KANs) and LSTM, demonstrate promising outcomes.
- Abstract(参考訳): 暗号市場のダイナミクスをモデル化するためのニューラルネットワークアーキテクチャについて検討する。
伝統的な線形モデルは、しばしばこの市場のユニークで複雑なダイナミクスを正確に捉えるのに不足する。
対照的に、Deep Neural Networks (DNN) は時系列予測においてかなりの熟練度を示している。
本稿では,固有状態空間モデルの原理とリカレントニューラルネットワーク(RNN)の動的機能とを融合した新しいニューラルネットワークフレームワークを提案する。
本稿では,Long Short Term Memory (LSTM), Gated Residual Units (GRU), Temporal Kolmogorov-Arnold Networks (TKAN) を用いた状態空間モデルを提案する。
結果によると、Kolmogorov-Arnold Networks (KANs)とLSTMにインスパイアされたTKANは、有望な結果を示している。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Hybridization of Persistent Homology with Neural Networks for Time-Series Prediction: A Case Study in Wave Height [0.0]
本稿では,ニューラルネットワークモデルの予測性能を向上させる機能工学手法を提案する。
具体的には、計算トポロジ手法を利用して、入力データから貴重なトポロジ的特徴を導出する。
タイムアヘッド予測では、FNN、RNN、LSTM、GRUモデルにおいて、R2$スコアの強化が重要だった。
論文 参考訳(メタデータ) (2024-09-03T01:26:21Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - SpikingSSMs: Learning Long Sequences with Sparse and Parallel Spiking State Space Models [19.04709216497077]
長いシーケンス学習のためのスパイキング状態空間モデル(SpikingSSM)を開発した。
樹状ニューロン構造にインスパイアされた我々は、神経力学を元のSSMブロックと階層的に統合する。
そこで本研究では,リセット後の膜電位を正確に予測し,学習可能なしきい値に適合する軽量サロゲート動的ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-27T09:35:49Z) - TKAN: Temporal Kolmogorov-Arnold Networks [0.0]
LSTM(Long Short-Term Memory)は、シーケンシャルデータにおける長期的な依存関係をキャプチャする能力を示している。
Kolmogorov-Arnold Networks (KANs) に触発されたマルチ層パーセプトロン(MLP)の代替案
我々はkanとLSTM、TKAN(Temporal Kolomogorov-Arnold Networks)にインスパイアされた新しいニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:40:48Z) - VMRNN: Integrating Vision Mamba and LSTM for Efficient and Accurate Spatiotemporal Forecasting [11.058879849373572]
時間的予測のためのRNNを持つVTやCNNは、時間的・空間的ダイナミクスを予測するのに相容れない結果をもたらす。
最近のMambaベースのアーキテクチャは、非常に長いシーケンスモデリング能力に熱中している。
本稿では,ビジョンマンバブロックの強度をLSTMと統合した再帰ユニットであるVMRNNセルを提案する。
論文 参考訳(メタデータ) (2024-03-25T08:26:42Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Spatio-Temporal Neural Network for Fitting and Forecasting COVID-19 [1.1129587851149594]
我々は、2020年の世界的な新型コロナウイルス感染拡大を予測するため、時空間ニューラルネットワーク(STNN)を構築した。
拡張空間状態STNN(STNN-A)と入力ゲートSTNN(STNN-I)の2つの改良されたSTNNアーキテクチャを提案する。
数値シミュレーションにより、STNNモデルはより正確なフィッティングと予測を提供し、空間データと時間データの両方を扱うことにより、他の多くのモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-22T13:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。