論文の概要: TSMixer: An all-MLP Architecture for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2303.06053v1
- Date: Fri, 10 Mar 2023 16:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 14:15:17.082230
- Title: TSMixer: An all-MLP Architecture for Time Series Forecasting
- Title(参考訳): TSMixer: 時系列予測のためのオールMLPアーキテクチャ
- Authors: Si-An Chen, Chun-Liang Li, Nate Yoder, Sercan O. Arik, Tomas Pfister
- Abstract要約: Time-Series Mixer (TSMixer) は多層パーセプトロン(MLP)を積み重ねたアーキテクチャである。
一般的な学術ベンチマークでは、シンプルな実装TSMixerは専門的な最先端モデルに匹敵する。
- 参考スコア(独自算出の注目度): 30.30829429548646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world time-series datasets are often multivariate with complex dynamics.
Commonly-used high capacity architectures like recurrent- or attention-based
sequential models have become popular. However, recent work demonstrates that
simple univariate linear models can outperform those deep alternatives. In this
paper, we investigate the capabilities of linear models for time-series
forecasting and present Time-Series Mixer (TSMixer), an architecture designed
by stacking multi-layer perceptrons (MLPs). TSMixer is based on mixing
operations along time and feature dimensions to extract information
efficiently. On popular academic benchmarks, the simple-to-implement TSMixer is
comparable to specialized state-of-the-art models that leverage the inductive
biases of specific benchmarks. On the challenging and large scale M5 benchmark,
a real-world retail dataset, TSMixer demonstrates superior performance compared
to the state-of-the-art alternatives. Our results underline the importance of
efficiently utilizing cross-variate and auxiliary information for improving the
performance of time series forecasting. The design paradigms utilized in
TSMixer are expected to open new horizons for deep learning-based time series
forecasting.
- Abstract(参考訳): 現実世界の時系列データセットはしばしば複雑なダイナミクスを持つ多変量である。
リカレントやアテンションベースのシーケンシャルモデルのような一般的な高容量アーキテクチャが普及している。
しかし、最近の研究は、単純な単変量線型モデルがこれらの深い代替よりも優れていることを示した。
本稿では,時系列予測のための線形モデルと,マルチ層パーセプトロン(MLP)を積み重ねたアーキテクチャである時系列ミキサ(TSMixer)について検討する。
TSMixerは時間と特徴次元の混合操作に基づいて情報を効率的に抽出する。
一般的な学術ベンチマークでは、TSMixerは特定のベンチマークの帰納バイアスを利用する専門的な最先端モデルに匹敵する。
現実の小売データセットである挑戦的で大規模なM5ベンチマークでは、TSMixerは最先端の代替モデルよりも優れたパフォーマンスを示している。
その結果,時系列予測の性能向上にクロスバリアイトと補助情報を効果的に活用することの重要性が示唆された。
TSMixerで使用される設計パラダイムは、ディープラーニングに基づく時系列予測のための新たな地平を開くことが期待されている。
関連論文リスト
- Random Projection Layers for Multidimensional Time Series Forecasting [34.41467079882721]
RPMixerと呼ばれる全MLP時系列予測アーキテクチャを提案する。
本手法は,各ブロックがアンサンブルモデルにおいてベース学習者のように振る舞う深層ニューラルネットワークのアンサンブル的挙動を利用する。
提案手法は時空間グラフモデルと一般予測モデルの両方を含む代替手法より優れている。
論文 参考訳(メタデータ) (2024-02-16T07:28:59Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [70.38241681764738]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Timer: Transformers for Time Series Analysis at Scale [87.9808714449511]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Tiny Time Mixers (TTMs): Fast Pre-trained Models for Enhanced
Zero/Few-Shot Forecasting of Multivariate Time Series [11.61594284555052]
本稿では,軽量なTSMixerアーキテクチャに基づく,非常に小さなモデルであるTiny Time Mixers(TTM)を紹介する。
時間分解能の異なる複数のデータセットに対する事前学習の複雑さに対処するために,いくつかの新しい拡張を導入する。
TTMは、少数/ゼロショットの予測において、人気のあるベンチマークよりも大きな精度向上(12-38%)を示している。
論文 参考訳(メタデータ) (2024-01-08T15:21:21Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series
Forecasting [26.080207374930055]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Generative Modeling of Regular and Irregular Time Series Data via
Koopman VAEs [53.91784369229405]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
以上の結果から,KVAEは,合成および実世界の時系列生成ベンチマークにおいて,最先端のGAN法およびVAE法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - TSMixer: Lightweight MLP-Mixer Model for Multivariate Time Series
Forecasting [13.410217680999459]
トランスフォーマーは、時系列の相互作用をキャプチャする能力のために時系列予測で人気を博している。
高メモリとコンピューティングの要求は、長期予測にとって重要なボトルネックとなる。
マルチ層パーセプトロン(MLP)モジュールからなる軽量ニューラルネットワークTSMixerを提案する。
論文 参考訳(メタデータ) (2023-06-14T06:26:23Z) - Learning Gaussian Mixture Representations for Tensor Time Series
Forecasting [8.31607451942671]
我々は、時間、位置、およびソース変数に暗示される各不均一成分を個別にモデル化する新しいTS予測フレームワークを開発する。
2つの実世界のTSデータセットによる実験結果は、最先端のベースラインと比較して、我々のアプローチの優位性を検証する。
論文 参考訳(メタデータ) (2023-06-01T06:50:47Z) - Merlion: A Machine Learning Library for Time Series [73.46386700728577]
Merlionは時系列のためのオープンソースの機械学習ライブラリである。
モデルの統一インターフェースと、異常検出と予測のためのデータセットを備えている。
Merlionはまた、本番環境でのモデルのライブデプロイメントと再トレーニングをシミュレートするユニークな評価フレームワークも提供する。
論文 参考訳(メタデータ) (2021-09-20T02:03:43Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。