論文の概要: Less Is More: Fast Multivariate Time Series Forecasting with Light
Sampling-oriented MLP Structures
- arxiv url: http://arxiv.org/abs/2207.01186v1
- Date: Mon, 4 Jul 2022 04:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 13:04:48.261058
- Title: Less Is More: Fast Multivariate Time Series Forecasting with Light
Sampling-oriented MLP Structures
- Title(参考訳): less is more: 光サンプリング指向mlp構造を用いた高速多変量時系列予測
- Authors: Tianping Zhang, Yizhuo Zhang, Wei Cao, Jiang Bian, Xiaohan Yi, Shun
Zheng, Jian Li
- Abstract要約: 単純な構造をベースとした軽量ディープラーニングアーキテクチャであるLightTSを紹介した。
既存の最先端のメソッドと比較すると、LightTSは5つのメソッドでより良いパフォーマンスを示し、残りの5つで同等のパフォーマンスを示している。
LightTSは堅牢であり、長いシーケンス予測タスクにおける従来のSOTA法よりも精度のばらつきがはるかに小さい。
- 参考スコア(独自算出の注目度): 18.592350352298553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate time series forecasting has seen widely ranging applications in
various domains, including finance, traffic, energy, and healthcare. To capture
the sophisticated temporal patterns, plenty of research studies designed
complex neural network architectures based on many variants of RNNs, GNNs, and
Transformers. However, complex models are often computationally expensive and
thus face a severe challenge in training and inference efficiency when applied
to large-scale real-world datasets. In this paper, we introduce LightTS, a
light deep learning architecture merely based on simple MLP-based structures.
The key idea of LightTS is to apply an MLP-based structure on top of two
delicate down-sampling strategies, including interval sampling and continuous
sampling, inspired by a crucial fact that down-sampling time series often
preserves the majority of its information. We conduct extensive experiments on
eight widely used benchmark datasets. Compared with the existing
state-of-the-art methods, LightTS demonstrates better performance on five of
them and comparable performance on the rest. Moreover, LightTS is highly
efficient. It uses less than 5% FLOPS compared with previous SOTA methods on
the largest benchmark dataset. In addition, LightTS is robust and has a much
smaller variance in forecasting accuracy than previous SOTA methods in long
sequence forecasting tasks.
- Abstract(参考訳): 多変量時系列予測は、金融、交通、エネルギー、医療など、様々な分野で広く応用されている。
洗練された時間パターンを捉えるために、多くの研究が、RNN、GNN、トランスフォーマーの多くのバリエーションに基づいた複雑なニューラルネットワークアーキテクチャを設計した。
しかし、複雑なモデルはしばしば計算コストが高く、大規模な実世界のデータセットに適用した場合、トレーニングや推論効率の面で厳しい課題に直面している。
本稿では,単純なMLP構造に基づく光深層学習アーキテクチャであるLightTSを紹介する。
LightTSの鍵となる考え方は、インターバルサンプリングと連続サンプリングを含む2つの微妙なダウンサンプリング戦略の上にMLPベースの構造を適用することである。
8つのベンチマークデータセットについて広範な実験を行った。
既存の最先端のメソッドと比較すると、LightTSは5つでパフォーマンスが良く、残りの5つで同等のパフォーマンスを示している。
さらに、LightTSは非常に効率的です。
最大のベンチマークデータセットの以前のSOTAメソッドと比較すると、FLOPSは5%未満である。
加えて、LightTSは堅牢であり、長いシーケンス予測タスクにおける従来のSOTA法よりも予測精度のばらつきがはるかに小さい。
関連論文リスト
- Test Time Learning for Time Series Forecasting [1.4605709124065924]
テストタイムトレーニング(TTT)モジュールは、MambaベースのTimeMachineなど、最先端モデルよりも一貫して優れている。
その結果,平均二乗誤差 (MSE) と平均絶対誤差 (MAE) に有意な改善が認められた。
この研究は、時系列予測の新しいベンチマークを設定し、スケーラブルで高性能な予測モデルにおける将来の研究の基礎を定めている。
論文 参考訳(メタデータ) (2024-09-21T04:40:08Z) - WEITS: A Wavelet-enhanced residual framework for interpretable time series forecasting [3.1551278097133895]
WEITSは周波数対応のディープラーニングフレームワークであり、高度に解釈可能で計算効率が高い。
本稿では,周波数認識型深層学習フレームワークWEITSについて述べる。
論文 参考訳(メタデータ) (2024-05-17T16:09:51Z) - Spatiotemporal-Linear: Towards Universal Multivariate Time Series
Forecasting [10.404951989266191]
本稿ではSTL(Spatio-Temporal-Linear)フレームワークを紹介する。
STLは、Linearベースのアーキテクチャを拡張するために、時間組込みと空間インフォームドのバイパスをシームレスに統合する。
実証的な証拠は、さまざまな観測時間と予測期間とデータセットにわたって、LinearとTransformerのベンチマークを上回り、STLの成果を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-12-22T17:46:34Z) - Frequency-domain MLPs are More Effective Learners in Time Series
Forecasting [67.60443290781988]
時系列予測は、金融、交通、エネルギー、医療など、さまざまな産業領域において重要な役割を果たしてきた。
最多ベースの予測手法は、ポイントワイドマッピングと情報のボトルネックに悩まされる。
本稿では、時系列予測のための周波数領域上に構築された、シンプルで効果的なアーキテクチャであるFreTSを提案する。
論文 参考訳(メタデータ) (2023-11-10T17:05:13Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Spatial-Temporal Identity: A Simple yet Effective Baseline for
Multivariate Time Series Forecasting [17.84296081495185]
我々は、STGNNほど強力だが、より簡潔で効率的なモデルを設計し、MTS予測の重要な要素について検討する。
本稿では,空間的,時間的両面におけるサンプルの不明瞭さを重要なボトルネックとみなし,MSS予測のための簡易かつ効果的なベースラインを提案する。
これらの結果から,STGNNに制限されることなく,サンプルの不明瞭さを解消できる限り,効率的かつ効率的なモデルを設計できることが示唆された。
論文 参考訳(メタデータ) (2022-08-10T09:25:43Z) - An Experimental Review on Deep Learning Architectures for Time Series
Forecasting [0.0]
時系列予測のための最も広範な深層学習研究を提供する。
すべての研究モデルの中で、結果は、長期短期記憶(LSTM)と畳み込みネットワーク(CNN)が最良の代替手段であることを示しています。
CNNは、異なるパラメータ設定の下で結果の変動が少なく、比較性能を達成し、効率も向上します。
論文 参考訳(メタデータ) (2021-03-22T17:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。