論文の概要: A Comparative Study of Detecting Anomalies in Time Series Data Using
LSTM and TCN Models
- arxiv url: http://arxiv.org/abs/2112.09293v1
- Date: Fri, 17 Dec 2021 02:46:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 03:21:02.599605
- Title: A Comparative Study of Detecting Anomalies in Time Series Data Using
LSTM and TCN Models
- Title(参考訳): LSTMモデルとTCNモデルを用いた時系列データ中の異常検出の比較検討
- Authors: Saroj Gopali, Faranak Abri, Sima Siami-Namini, Akbar Siami Namin
- Abstract要約: 本稿では,2つの著名なディープラーニングモデリング手法を比較した。
Recurrent Neural Network (RNN)-based Long Short-Term Memory (LSTM) と Convolutional Neural Network (CNN)-based Temporal Convolutional Networks (TCN) を比較した。
- 参考スコア(独自算出の注目度): 2.007262412327553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There exist several data-driven approaches that enable us model time series
data including traditional regression-based modeling approaches (i.e., ARIMA).
Recently, deep learning techniques have been introduced and explored in the
context of time series analysis and prediction. A major research question to
ask is the performance of these many variations of deep learning techniques in
predicting time series data. This paper compares two prominent deep learning
modeling techniques. The Recurrent Neural Network (RNN)-based Long Short-Term
Memory (LSTM) and the convolutional Neural Network (CNN)-based Temporal
Convolutional Networks (TCN) are compared and their performance and training
time are reported. According to our experimental results, both modeling
techniques perform comparably having TCN-based models outperform LSTM slightly.
Moreover, the CNN-based TCN model builds a stable model faster than the
RNN-based LSTM models.
- Abstract(参考訳): 従来の回帰に基づくモデリングアプローチ(ARIMA)を含む時系列データをモデル化できるデータ駆動型アプローチがいくつか存在する。
近年,時系列解析と予測の文脈で深層学習技術が導入され,研究されている。
問うべき大きな研究課題は、時系列データの予測におけるこれらのさまざまなディープラーニング技術のパフォーマンスである。
本稿では,2つの著明なディープラーニングモデリング手法を比較した。
Recurrent Neural Network (RNN)-based Long Short-Term Memory (LSTM) と Convolutional Neural Network (CNN)-based Temporal Convolutional Networks (TCN) を比較し,その性能とトレーニング時間を報告する。
実験結果によると,ttnベースのモデルがlstmをわずかに上回って比較可能であった。
さらに、CNNベースのTNモデルは、RNNベースのLSTMモデルよりも高速に安定したモデルを構築する。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - A data filling methodology for time series based on CNN and (Bi)LSTM
neural networks [0.0]
イタリア・ボルツァーノの監視アパートから得られた時系列データギャップを埋めるための2つのDeep Learningモデルを開発した。
提案手法は, 変動するデータの性質を把握し, 対象時系列の再構成に優れた精度を示す。
論文 参考訳(メタデータ) (2022-04-21T09:40:30Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - CARRNN: A Continuous Autoregressive Recurrent Neural Network for Deep
Representation Learning from Sporadic Temporal Data [1.8352113484137622]
本稿では,散発データにおける複数の時間的特徴をモデル化するための新しい深層学習モデルを提案する。
提案モデルはCARRNNと呼ばれ、時間ラグによって変調されたニューラルネットワークを用いてエンドツーエンドにトレーニング可能な一般化された離散時間自己回帰モデルを使用する。
アルツハイマー病進行モデルおよび集中治療単位(ICU)死亡率予測のためのデータを用いて,多変量時系列回帰タスクに適用した。
論文 参考訳(メタデータ) (2021-04-08T12:43:44Z) - Evaluation of deep learning models for multi-step ahead time series
prediction [1.3764085113103222]
本研究では,マルチステップ先行時系列予測のための深層学習モデルの性能を比較検討する。
当社のディープラーニングメソッドは、単純なリカレントニューラルネットワーク、長期メモリ(LSTM)ネットワーク、双方向LSTM、エンコーダデコーダLSTMネットワーク、および畳み込みニューラルネットワークを妥協します。
論文 参考訳(メタデータ) (2021-03-26T04:07:11Z) - Compressing LSTM Networks by Matrix Product Operators [7.395226141345625]
Long Short Term Memory(LSTM)モデルは、多くの最先端自然言語処理(NLP)と音声強調(SE)アルゴリズムの構築ブロックである。
ここでは、量子多体物理学における量子状態の局所的相関を記述するMPO分解を紹介する。
LSTMモデルを置き換えるために,行列積演算子(MPO)に基づくニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-22T11:50:06Z) - Sentiment Analysis Using Simplified Long Short-term Memory Recurrent
Neural Networks [1.5146765382501612]
GOPディベートTwitterデータセット上で感情分析を行う。
学習を高速化し、計算コストと時間を短縮するために、LSTMモデルのスリムバージョンを6つの異なるパラメータで削減する手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T12:50:10Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。