論文の概要: An analysis of deep neural networks for predicting trends in time series
data
- arxiv url: http://arxiv.org/abs/2009.07943v2
- Date: Tue, 22 Sep 2020 20:44:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:18:48.320169
- Title: An analysis of deep neural networks for predicting trends in time series
data
- Title(参考訳): 時系列データにおけるトレンド予測のためのディープニューラルネットワークの解析
- Authors: Kouame Hermann Kouassi and Deshendran Moodley
- Abstract要約: TreNetは、時系列データのトレンドを予測するためのハイブリッドディープニューラルネットワーク(DNN)アルゴリズムである。
ウォークフォワード検証法を用いて,同じデータセット上でTreNet実験を再現し,複数の独立したランで最適モデルを検証し,モデルの安定性を評価した。
一般的には、TreNetはバニラDNNモデルよりもパフォーマンスが良いが、オリジナルのTreNet研究で報告されたように、すべてのデータセット上では動作しない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, a hybrid Deep Neural Network (DNN) algorithm, TreNet was proposed
for predicting trends in time series data. While TreNet was shown to have
superior performance for trend prediction to other DNN and traditional ML
approaches, the validation method used did not take into account the sequential
nature of time series data sets and did not deal with model update. In this
research we replicated the TreNet experiments on the same data sets using a
walk-forward validation method and tested our optimal model over multiple
independent runs to evaluate model stability. We compared the performance of
the hybrid TreNet algorithm, on four data sets to vanilla DNN algorithms that
take in point data, and also to traditional ML algorithms. We found that in
general TreNet still performs better than the vanilla DNN models, but not on
all data sets as reported in the original TreNet study. This study highlights
the importance of using an appropriate validation method and evaluating model
stability for evaluating and developing machine learning models for trend
prediction in time series data.
- Abstract(参考訳): 近年,時系列データの傾向を予測するために,ハイブリッドディープニューラルネットワーク(DNN)アルゴリズムであるTreNetが提案されている。
TreNetは、他のDNNや従来のMLアプローチよりも、トレンド予測に優れた性能を示したが、使用した検証方法は時系列データセットのシーケンシャルな性質を考慮せず、モデル更新に対処しなかった。
本研究では,同じデータセット上でのTreNet実験をウォークフォワード検証法を用いて再現し,モデル安定性を評価するために,複数の独立ランで最適モデルを検証した。
我々は,4つのデータセットにおけるハイブリッドTreNetアルゴリズムの性能を,点データを取り込むバニラDNNアルゴリズム,および従来のMLアルゴリズムと比較した。
一般的には、TreNetはバニラDNNモデルよりもパフォーマンスが良いが、オリジナルのTreNet研究で報告されたように、すべてのデータセット上では動作しない。
本研究は,時系列データにおけるトレンド予測のための機械学習モデルの評価と開発において,適切な検証手法とモデルの安定性を評価することの重要性を強調する。
関連論文リスト
- Neural Conformal Control for Time Series Forecasting [54.96087475179419]
非定常環境における適応性を高める時系列のニューラルネットワーク共形予測手法を提案する。
提案手法は,ニューラルネットワークエンコーダを用いた補助的マルチビューデータを活用することにより,望ましい対象範囲を達成するために設計されたニューラルネットワークコントローラとして機能する。
予測間隔の整合性に優れたキャリブレーションを組み合わさった手法は, 適用範囲と確率的精度の大幅な向上を実証的に示す。
論文 参考訳(メタデータ) (2024-12-24T03:56:25Z) - Inferring Data Preconditions from Deep Learning Models for Trustworthy
Prediction in Deployment [25.527665632625627]
デプロイ中に見つからないデータを使って、モデルの予測の信頼性を判断することが重要です。
従来のソフトウェアを特定し検証する既存の方法は、このタスクには不十分である。
本稿では、ニューラルネットワーク計算から導出されるルールを用いて、データ前提条件を推論する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T03:47:18Z) - SHAPNN: Shapley Value Regularized Tabular Neural Network [4.587122314291091]
本稿では,教師あり学習のための新しい深層データモデリングアーキテクチャであるSHAPNNを紹介する。
我々のニューラルネットワークは、標準的な後方伝播最適化手法を用いて訓練され、リアルタイムに推定されたShapley値で正規化される。
我々は,これらの手法を公開データセット上で評価し,最先端のディープニューラルネットワークモデルと比較した。
論文 参考訳(メタデータ) (2023-09-15T22:45:05Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Boosted Dynamic Neural Networks [53.559833501288146]
典型的なEDNNは、ネットワークバックボーンの異なる層に複数の予測ヘッドを持つ。
モデルを最適化するために、これらの予測ヘッドとネットワークバックボーンは、トレーニングデータのバッチ毎にトレーニングされる。
トレーニングと2つのフェーズでのインプットの異なるテストは、トレーニングとデータ分散のテストのミスマッチを引き起こす。
EDNNを勾配強化にインスパイアされた付加モデルとして定式化し、モデルを効果的に最適化するための複数のトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T04:23:12Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Evaluation of deep learning models for multi-step ahead time series
prediction [1.3764085113103222]
本研究では,マルチステップ先行時系列予測のための深層学習モデルの性能を比較検討する。
当社のディープラーニングメソッドは、単純なリカレントニューラルネットワーク、長期メモリ(LSTM)ネットワーク、双方向LSTM、エンコーダデコーダLSTMネットワーク、および畳み込みニューラルネットワークを妥協します。
論文 参考訳(メタデータ) (2021-03-26T04:07:11Z) - Improved Predictive Deep Temporal Neural Networks with Trend Filtering [22.352437268596674]
本稿では,ディープニューラルネットワークとトレンドフィルタリングに基づく新しい予測フレームワークを提案する。
我々は,学習データをトレンドフィルタリングによって時間的に処理した場合,深部時相ニューラルネットワークの予測性能が向上することを明らかにする。
論文 参考訳(メタデータ) (2020-10-16T08:29:36Z) - Automatic deep learning for trend prediction in time series data [0.0]
時系列データのトレンドを予測するためにディープニューラルネットワーク(DNN)アルゴリズムが検討されている。
多くの実世界のアプリケーションでは、時系列データは動的システムから取得される。
モデル開発プロセスを自動化するために,最新のAutoMLツールを効果的に利用する方法を示す。
論文 参考訳(メタデータ) (2020-09-17T19:47:05Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。