論文の概要: Hypercomplex neural network in time series forecasting of stock data
- arxiv url: http://arxiv.org/abs/2401.04632v2
- Date: Tue, 13 Feb 2024 15:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 18:42:32.488350
- Title: Hypercomplex neural network in time series forecasting of stock data
- Title(参考訳): ストックデータの時系列予測における超複雑ニューラルネットワーク
- Authors: Rados{\l}aw Kycia, Agnieszka Niemczynowicz
- Abstract要約: 入力層に畳み込み、長短期記憶(LSTM)、あるいは4次元代数の高複素層を含むように異なるアーキテクチャを評価した。
4つの関連する株式市場の時系列が入力データとして使われ、予測はそのうちの1つに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of this paper is to test three classes of neural network (NN)
architectures based on four-dimensional (4D) hypercomplex algebras for time
series prediction. We evaluate different architectures, varying the input
layers to include convolutional, Long Short-Term Memory (LSTM), or dense
hypercomplex layers for 4D algebras. Four related Stock Market time series are
used as input data, with the prediction focused on one of them. Hyperparameter
optimization for each architecture class was conducted to compare the
best-performing neural networks within each class. The results indicate that,
in most cases, architectures with hypercomplex dense layers achieve similar
Mean Absolute Error (MAE) accuracy compared to other architectures, but with
significantly fewer trainable parameters. Consequently, hypercomplex neural
networks demonstrate the ability to learn and process time series data faster
than the other tested architectures. Additionally, it was found that the
ordering of the input time series have a notable impact on effectiveness.
- Abstract(参考訳): 本稿では,時系列予測のための4次元(4次元)超複素代数に基づくニューラルネットワーク(nn)アーキテクチャの3つのクラスをテストする。
入力層に畳み込み、長短期記憶(LSTM)、あるいは4次元代数の高複素層を含むように異なるアーキテクチャを評価した。
4つの関連する株式市場時系列が入力データとして使われ、予測はそのうちの1つに焦点を当てている。
各アーキテクチャクラスに対するハイパーパラメータ最適化を行い、各クラスで最高の性能を持つニューラルネットワークを比較した。
その結果,高複素密集層を持つアーキテクチャは,他のアーキテクチャと同等に平均絶対誤差 (mae) の精度が得られるが,学習可能なパラメータは極めて少ないことがわかった。
その結果、超複雑ニューラルネットワークは、他のテスト済みアーキテクチャよりも高速に時系列データを学習し、処理する能力を示す。
さらに,入力時系列の順序付けが有効性に顕著な影響を及ぼすことがわかった。
関連論文リスト
- Time Elastic Neural Networks [2.1756081703276]
時間弾性ニューラルネットワーク(teNN)という,非定型ニューラルネットワークアーキテクチャの導入と詳細化について述べる。
古典的ニューラルネットワークアーキテクチャと比較して新しいのは、時間ゆがみ能力を明確に組み込んでいることだ。
トレーニング過程において,TENNは各細胞に必要となるニューロン数を減少させることに成功した。
論文 参考訳(メタデータ) (2024-05-27T09:01:30Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - An optimised deep spiking neural network architecture without gradients [7.183775638408429]
本稿では、局所シナプスおよびしきい値適応ルールを用いたエンドツーエンドのトレーニング可能なモジュラーイベント駆動ニューラルアーキテクチャを提案する。
このアーキテクチャは、既存のスパイキングニューラルネットワーク(SNN)アーキテクチャの高度に抽象化されたモデルを表している。
論文 参考訳(メタデータ) (2021-09-27T05:59:12Z) - SITHCon: A neural network robust to variations in input scaling on the
time dimension [0.0]
機械学習では、畳み込みニューラルネットワーク(CNN)はコンピュータビジョンと時間とともに拡張されたパターンの認識の両方に非常に影響を与えている。
本稿では,対数的に分散した時間メモリを用いたSITHCon(Scale-Invariant Temporal History Convolution Network)を提案する。
論文 参考訳(メタデータ) (2021-07-09T18:11:50Z) - An Experimental Review on Deep Learning Architectures for Time Series
Forecasting [0.0]
時系列予測のための最も広範な深層学習研究を提供する。
すべての研究モデルの中で、結果は、長期短期記憶(LSTM)と畳み込みネットワーク(CNN)が最良の代替手段であることを示しています。
CNNは、異なるパラメータ設定の下で結果の変動が少なく、比較性能を達成し、効率も向上します。
論文 参考訳(メタデータ) (2021-03-22T17:58:36Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。