論文の概要: CRU: A Novel Neural Architecture for Improving the Predictive
Performance of Time-Series Data
- arxiv url: http://arxiv.org/abs/2211.16653v1
- Date: Wed, 30 Nov 2022 00:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 16:23:25.716999
- Title: CRU: A Novel Neural Architecture for Improving the Predictive
Performance of Time-Series Data
- Title(参考訳): cru: 時系列データの予測性能を改善するための新しいニューラルネットワーク
- Authors: Sunghyun Sim, Dohee Kim, Hyerim Bae
- Abstract要約: 我々は,ニューラルネットワーク内で時系列分解を行うことができる相関再帰ユニット(CRU)と呼ばれる新しいニューラルアーキテクチャを提案する。
その結果,長期・短期予測性能は10%以上向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The time-series forecasting (TSF) problem is a traditional problem in the
field of artificial intelligence. Models such as Recurrent Neural Network
(RNN), Long Short Term Memory (LSTM), and GRU (Gate Recurrent Units) have
contributed to improving the predictive accuracy of TSF. Furthermore, model
structures have been proposed to combine time-series decomposition methods,
such as seasonal-trend decomposition using Loess (STL) to ensure improved
predictive accuracy. However, because this approach is learned in an
independent model for each component, it cannot learn the relationships between
time-series components. In this study, we propose a new neural architecture
called a correlation recurrent unit (CRU) that can perform time series
decomposition within a neural cell and learn correlations (autocorrelation and
correlation) between each decomposition component. The proposed neural
architecture was evaluated through comparative experiments with previous
studies using five univariate time-series datasets and four multivariate
time-series data. The results showed that long- and short-term predictive
performance was improved by more than 10%. The experimental results show that
the proposed CRU is an excellent method for TSF problems compared to other
neural architectures.
- Abstract(参考訳): 時系列予測(TSF)問題は、人工知能分野における伝統的な問題である。
Recurrent Neural Network(RNN)、Long Short Term Memory(LSTM)、GRU(Gate Recurrent Units)といったモデルは、TSFの予測精度の向上に寄与している。
さらに,loess (stl) を用いた季節分解や予測精度の向上など,時系列分解法を組み合わせたモデル構造が提案されている。
しかしながら、このアプローチは各コンポーネントの独立したモデルで学習されるため、時系列コンポーネント間の関係を学べない。
本研究では、ニューラルネットワーク内で時系列分解を行い、各分解成分間の相関(自己相関と相関)を学習できる相関再帰ユニット(cru)と呼ばれる新しいニューラルアーキテクチャを提案する。
提案するニューラルアーキテクチャは,5つの不定時系列データセットと4つの多変量時系列データを用いて,従来の研究との比較実験により評価した。
その結果,長期および短期の予測性能は10%以上向上した。
実験の結果,提案したCRUは,他のニューラルネットワークと比較して,TSF問題に優れた手法であることがわかった。
関連論文リスト
- Hybridization of Persistent Homology with Neural Networks for Time-Series Prediction: A Case Study in Wave Height [0.0]
本稿では,ニューラルネットワークモデルの予測性能を向上させる機能工学手法を提案する。
具体的には、計算トポロジ手法を利用して、入力データから貴重なトポロジ的特徴を導出する。
タイムアヘッド予測では、FNN、RNN、LSTM、GRUモデルにおいて、R2$スコアの強化が重要だった。
論文 参考訳(メタデータ) (2024-09-03T01:26:21Z) - Causal Discovery from Time-Series Data with Short-Term Invariance-Based Convolutional Neural Networks [12.784885649573994]
時系列データによる因果発見は、スライス内(同時)とスライス間(時差)の両方の因果関係を捉えることを目的としている。
我々は, textbfShort-textbfTerm textbfInvariance に着目した勾配に基づく因果探索手法 STIC を提案する。
論文 参考訳(メタデータ) (2024-08-15T08:43:28Z) - Correlation-aware Spatial-Temporal Graph Learning for Multivariate
Time-series Anomaly Detection [67.60791405198063]
時系列異常検出のための相関対応時空間グラフ学習(CST-GL)を提案する。
CST-GLは、多変量時系列相関学習モジュールを介してペアの相関を明示的にキャプチャする。
新規な異常スコアリング成分をCST-GLにさらに統合し、純粋に教師なしの方法で異常の度合いを推定する。
論文 参考訳(メタデータ) (2023-07-17T11:04:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - Recurrent Neural Networks for Forecasting Time Series with Multiple
Seasonality: A Comparative Study [1.1602089225841632]
複数の季節性のある時系列を予測するために、リカレントニューラルネットワーク(RNN)と異なる種類のゲート細胞を比較した。
提案したRNNは点予測と予測区間(PI)の両方を生成する。
欧州35カ国の短期電気負荷予測に関する実証研究により、新しいゲート細胞は、拡張と注意が最善であることを確認した。
論文 参考訳(メタデータ) (2022-03-17T08:47:49Z) - CARRNN: A Continuous Autoregressive Recurrent Neural Network for Deep
Representation Learning from Sporadic Temporal Data [1.8352113484137622]
本稿では,散発データにおける複数の時間的特徴をモデル化するための新しい深層学習モデルを提案する。
提案モデルはCARRNNと呼ばれ、時間ラグによって変調されたニューラルネットワークを用いてエンドツーエンドにトレーニング可能な一般化された離散時間自己回帰モデルを使用する。
アルツハイマー病進行モデルおよび集中治療単位(ICU)死亡率予測のためのデータを用いて,多変量時系列回帰タスクに適用した。
論文 参考訳(メタデータ) (2021-04-08T12:43:44Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Pay Attention to Evolution: Time Series Forecasting with Deep
Graph-Evolution Learning [33.79957892029931]
本研究は時系列予測のためのニューラルネットワークアーキテクチャを提案する。
Recurrent Graph Evolution Neural Network (ReGENN) と名付けた。
多数のアンサンブル法と古典統計法との比較を行った。
論文 参考訳(メタデータ) (2020-08-28T20:10:07Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。