論文の概要: Correlation recurrent units: A novel neural architecture for improving the predictive performance of time-series data
- arxiv url: http://arxiv.org/abs/2211.16653v3
- Date: Wed, 28 Aug 2024 15:17:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 21:50:55.864496
- Title: Correlation recurrent units: A novel neural architecture for improving the predictive performance of time-series data
- Title(参考訳): リレーショナル・リカレント・ユニット:時系列データの予測性能向上のための新しいニューラル・アーキテクチャ
- Authors: Sunghyun Sim, Dohee Kim, Hyerim Bae,
- Abstract要約: 我々は,ニューラルネットワーク内で時系列分解を行うことができる相関再帰ユニット(CRU)と呼ばれる新しいニューラルアーキテクチャを提案する。
その結果,長期・短期予測性能は10%以上向上した。
- 参考スコア(独自算出の注目度): 4.2443814047515716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The time-series forecasting (TSF) problem is a traditional problem in the field of artificial intelligence. Models such as Recurrent Neural Network (RNN), Long Short Term Memory (LSTM), and GRU (Gate Recurrent Units) have contributed to improving the predictive accuracy of TSF. Furthermore, model structures have been proposed to combine time-series decomposition methods, such as seasonal-trend decomposition using Loess (STL) to ensure improved predictive accuracy. However, because this approach is learned in an independent model for each component, it cannot learn the relationships between time-series components. In this study, we propose a new neural architecture called a correlation recurrent unit (CRU) that can perform time series decomposition within a neural cell and learn correlations (autocorrelation and correlation) between each decomposition component. The proposed neural architecture was evaluated through comparative experiments with previous studies using five univariate time-series datasets and four multivariate time-series data. The results showed that long- and short-term predictive performance was improved by more than 10%. The experimental results show that the proposed CRU is an excellent method for TSF problems compared to other neural architectures.
- Abstract(参考訳): 時系列予測(TSF)問題は、人工知能分野における伝統的な問題である。
Recurrent Neural Network(RNN)、Long Short Term Memory(LSTM)、GRU(Gate Recurrent Units)といったモデルは、TSFの予測精度の向上に寄与している。
さらに,Loses (STL) を用いた季節差分解などの時系列分解手法を組み合わせることにより,予測精度を向上させるモデル構造が提案されている。
しかし、このアプローチは各コンポーネントの独立したモデルで学習されるため、時系列コンポーネント間の関係を学習することはできない。
本研究では,ニューラルネットワーク内で時系列分解を行い,各分解成分間の相関関係(自己相関と相関関係)を学習できる相関リカレントユニット(CRU)を提案する。
提案したニューラルネットワークは、5つの単変量時系列データセットと4つの多変量時系列データを用いて、以前の研究との比較実験により評価された。
その結果,長期・短期予測性能は10%以上向上した。
実験の結果,提案したCRUは,他のニューラルネットワークと比較して,TSF問題に優れた手法であることがわかった。
関連論文リスト
- Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation
for Time Series [49.992908221544624]
時系列データは、しばしば多くの欠落した値を示し、これは時系列計算タスクである。
従来の深層学習法は時系列計算に有効であることが示されている。
本研究では,不確実性のある高精度な計算を行う非生成時系列計算法を提案する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Time-Parameterized Convolutional Neural Networks for Irregularly Sampled
Time Series [26.77596449192451]
不規則にサンプリングされた時系列は、いくつかのアプリケーション領域でユビキタスであり、スパースであり、完全に観測されていない、非整合的な観察に繋がる。
標準シーケンシャルニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)は、観測時間間の定期的な間隔を考慮し、不規則な時系列モデリングに重大な課題を提起する。
時間的に不規則なカーネルを用いて畳み込み層をパラメータ化する。
論文 参考訳(メタデータ) (2023-08-06T21:10:30Z) - Correlation-aware Spatial-Temporal Graph Learning for Multivariate
Time-series Anomaly Detection [67.60791405198063]
時系列異常検出のための相関対応時空間グラフ学習(CST-GL)を提案する。
CST-GLは、多変量時系列相関学習モジュールを介してペアの相関を明示的にキャプチャする。
新規な異常スコアリング成分をCST-GLにさらに統合し、純粋に教師なしの方法で異常の度合いを推定する。
論文 参考訳(メタデータ) (2023-07-17T11:04:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - An Improved Time Feedforward Connections Recurrent Neural Networks [3.0965505512285967]
リカレントニューラルネットワーク(RNN)は洪水予測や財務データ処理といった時間的問題に広く応用されている。
従来のRNNモデルは、厳密な時系列依存性のために勾配問題を増幅する。
勾配問題に対処するために、改良された時間フィードフォワード接続リカレントニューラルネットワーク(TFC-RNN)モデルが最初に提案された。
単一ゲートリカレントユニット(Single Gate Recurrent Unit, SGRU)と呼ばれる新しい細胞構造が提示され、RNNセルのパラメータ数が減少した。
論文 参考訳(メタデータ) (2022-11-03T09:32:39Z) - Recurrent Neural Networks for Forecasting Time Series with Multiple
Seasonality: A Comparative Study [1.1602089225841632]
複数の季節性のある時系列を予測するために、リカレントニューラルネットワーク(RNN)と異なる種類のゲート細胞を比較した。
提案したRNNは点予測と予測区間(PI)の両方を生成する。
欧州35カ国の短期電気負荷予測に関する実証研究により、新しいゲート細胞は、拡張と注意が最善であることを確認した。
論文 参考訳(メタデータ) (2022-03-17T08:47:49Z) - CARRNN: A Continuous Autoregressive Recurrent Neural Network for Deep
Representation Learning from Sporadic Temporal Data [1.8352113484137622]
本稿では,散発データにおける複数の時間的特徴をモデル化するための新しい深層学習モデルを提案する。
提案モデルはCARRNNと呼ばれ、時間ラグによって変調されたニューラルネットワークを用いてエンドツーエンドにトレーニング可能な一般化された離散時間自己回帰モデルを使用する。
アルツハイマー病進行モデルおよび集中治療単位(ICU)死亡率予測のためのデータを用いて,多変量時系列回帰タスクに適用した。
論文 参考訳(メタデータ) (2021-04-08T12:43:44Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Pay Attention to Evolution: Time Series Forecasting with Deep
Graph-Evolution Learning [33.79957892029931]
本研究は時系列予測のためのニューラルネットワークアーキテクチャを提案する。
Recurrent Graph Evolution Neural Network (ReGENN) と名付けた。
多数のアンサンブル法と古典統計法との比較を行った。
論文 参考訳(メタデータ) (2020-08-28T20:10:07Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。