論文の概要: Long Input Sequence Network for Long Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2407.15869v1
- Date: Thu, 18 Jul 2024 08:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 21:54:39.957285
- Title: Long Input Sequence Network for Long Time Series Forecasting
- Title(参考訳): 時系列予測のためのLong Input Sequence Network
- Authors: Chao Ma, Yikai Hou, Xiang Li, Yinggang Sun, Haining Yu,
- Abstract要約: 短時間の固定長入力は、長い時系列予測タスクにおけるディープラーニング手法の主なボトルネックである。
我々は,新しいシリーズ分解モジュール(MPSD)とマルチトークンパターン認識ニューラルネットワーク(MTPR)を導入する。
トークンのサイズは、モデルがフォーカスするスケールとそれに対応するコンテキストサイズを決定するため、主にモデルの振る舞いを規定する。
- 参考スコア(独自算出の注目度): 6.016990089180451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Short fixed-length inputs are the main bottleneck of deep learning methods in long time-series forecasting tasks. Prolonging input length causes overfitting, rapidly deteriorating accuracy. Our research indicates that the overfitting is a combination reaction of the multi-scale pattern coupling in time series and the fixed focusing scale of current models. First, we find that the patterns exhibited by a time series across various scales are reflective of its multi-periodic nature, where each scale corresponds to specific period length. Second, We find that the token size predominantly dictates model behavior, as it determines the scale at which the model focuses and the context size it can accommodate. Our idea is to decouple the multi-scale temporal patterns of time series and to model each pattern with its corresponding period length as token size. We introduced a novel series-decomposition module(MPSD), and a Multi-Token Pattern Recognition neural network(MTPR), enabling the model to handle \textit{inputs up to $10\times$ longer}. Sufficient context enhances performance(\textit{38% maximum precision improvement}), and the decoupling approach offers \textit{Low complexity($0.22\times$ cost)} and \textit{high interpretability}.
- Abstract(参考訳): 短時間の固定長入力は、長い時系列予測タスクにおけるディープラーニング手法の主なボトルネックである。
入力長が長くなると、過度に適合し、急速に精度が低下する。
本研究は,時間列におけるマルチスケールパターン結合と,現行モデルの固定フォーカススケールの組合せであることを示す。
まず,様々なスケールにまたがる時系列で表されるパターンは,各スケールが特定の期間長に対応する多周期的特性を反映していることがわかった。
第二に、トークンのサイズはモデルがフォーカスするスケールとそれに対応するコンテキストサイズを決定するため、主にモデルの振る舞いを規定する。
我々の考えは、時系列のマルチスケール時間パターンを分離し、対応する周期長のパターンをトークンサイズとしてモデル化することである。
我々は,新しいシリーズ分解モジュール (MPSD) とマルチトークンパターン認識ニューラルネットワーク (MTPR) を導入し,最大10\times$long} まで扱えるようにした。
Sufficient contexts enhance performance (\textit{38% maximum precision Improvement}) and the decoupling approach offered \textit{Low complexity($0.22\times$ cost)} and \textit{high interpretability}。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - MultiResFormer: Transformer with Adaptive Multi-Resolution Modeling for
General Time Series Forecasting [18.990322695844675]
トランスフォーマーベースのモデルは、最近時系列予測の境界を大きく押し上げている。
既存のメソッドは通常、時系列データを$textitpatches$にエンコードする。
最適パッチ長を適応的に選択することで時間変動を動的にモデル化するMultiResFormerを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:24:33Z) - MPPN: Multi-Resolution Periodic Pattern Network For Long-Term Time
Series Forecasting [19.573651104129443]
長期の時系列予測は、様々な現実のシナリオにおいて重要な役割を果たす。
近年の時系列予測の深層学習手法は,分解法やサンプリング法により時系列の複雑なパターンを捉える傾向にある。
本稿では,MPPN(Multi- resolution Periodic Pattern Network)という,長期連続予測のための新しいディープラーニングネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-12T07:00:37Z) - Continuous-time convolutions model of event sequences [53.36665135225617]
イベントシーケンスデータの巨大なサンプルは、eコマース、ヘルスケア、ファイナンスなど、さまざまなドメインで発生します。
利用可能なデータの量とクライアント毎のイベントシーケンスの長さは典型的には大きいため、長期的なモデリングが必要である。
時間内の事象の一様発生に適した連続畳み込みニューラルネットワークに基づくCOTIC法を提案する。
論文 参考訳(メタデータ) (2023-02-13T10:34:51Z) - A Pattern Discovery Approach to Multivariate Time Series Forecasting [27.130141538089152]
モデル複雑性は時系列の長さとともに指数関数的に増加するので、最先端のディープラーニング手法はフルタイムのモデルの構築に失敗する。
本稿では,多種多様な時系列パターンを自動的にキャプチャできる新しいパターン探索手法を提案する。
また,学習可能な相関行列を提案し,複数の時系列間の相関関係をモデル化する。
論文 参考訳(メタデータ) (2022-12-20T14:54:04Z) - TimesNet: Temporal 2D-Variation Modeling for General Time Series
Analysis [80.56913334060404]
時系列解析は、天気予報、異常検出、行動認識などの応用において非常に重要である。
従来の手法では、1D時系列から直接これを達成しようと試みていた。
複雑な経時的変化を、複数の経時的変化と経時的変化に明らかにする。
論文 参考訳(メタデータ) (2022-10-05T12:19:51Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Triformer: Triangular, Variable-Specific Attentions for Long Sequence
Multivariate Time Series Forecasting--Full Version [50.43914511877446]
本稿では,高い効率と精度を確保するために,三角形,可変特性に着目した注意点を提案する。
我々はTriformerが精度と効率の両方で最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-04-28T20:41:49Z) - Interpretable Time Series Classification using Linear Models and
Multi-resolution Multi-domain Symbolic Representations [6.6147550436077776]
我々は,現在のアプローチにおけるギャップに対処する新しい時系列分類アルゴリズムを提案する。
提案手法は,時系列の記号表現,効率的なシーケンスマイニングアルゴリズム,線形分類モデルに基づく。
我々のモデルは深層学習モデルと同じくらい正確だが、実行時間やメモリに関してより効率的であり、可変長の時系列を扱うことができ、元の時系列における識別的象徴的特徴を強調することで解釈できる。
論文 参考訳(メタデータ) (2020-05-31T15:32:08Z) - Pattern-based Long Short-term Memory for Mid-term Electrical Load
Forecasting [0.0]
本研究は,1年間の地平線で月次電力需要時系列を予測するためのネットワークを提示する。
この研究の新規性は、分解の代替として季節時系列のパターン表現を使用することである。
欧州35か国における月次電力需要時系列のシミュレーション研究により,提案モデルの高性能性が確認された。
論文 参考訳(メタデータ) (2020-04-22T08:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。