論文の概要: Decomposing the Time Series Forecasting Pipeline: A Modular Approach for Time Series Representation, Information Extraction, and Projection
- arxiv url: http://arxiv.org/abs/2507.05891v1
- Date: Tue, 08 Jul 2025 11:26:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.946036
- Title: Decomposing the Time Series Forecasting Pipeline: A Modular Approach for Time Series Representation, Information Extraction, and Projection
- Title(参考訳): 時系列予測パイプラインの分解: 時系列表現・情報抽出・投影のためのモジュール的アプローチ
- Authors: Robert Leppich, Michael Stenger, André Bauer, Samuel Kounev,
- Abstract要約: 時系列予測は依然として困難な課題であり、効果的なシーケンス表現、意味のある情報抽出、正確な将来予測を要求している。
本研究は時系列予測パイプラインを,入力シーケンス表現,情報抽出とメモリ構築,最終目標投影という3つのコアステージに分解する。
我々のモデルは、トレーニング時間と推論時間を短縮し、パラメータ数を小さくし、計算効率を大幅に向上させながら、最先端の予測精度を達成する。
- 参考スコア(独自算出の注目度): 2.5216923314390733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advent of Transformers, time series forecasting has seen significant advances, yet it remains challenging due to the need for effective sequence representation, memory construction, and accurate target projection. Time series forecasting remains a challenging task, demanding effective sequence representation, meaningful information extraction, and precise future projection. Each dataset and forecasting configuration constitutes a distinct task, each posing unique challenges the model must overcome to produce accurate predictions. To systematically address these task-specific difficulties, this work decomposes the time series forecasting pipeline into three core stages: input sequence representation, information extraction and memory construction, and final target projection. Within each stage, we investigate a range of architectural configurations to assess the effectiveness of various modules, such as convolutional layers for feature extraction and self-attention mechanisms for information extraction, across diverse forecasting tasks, including evaluations on seven benchmark datasets. Our models achieve state-of-the-art forecasting accuracy while greatly enhancing computational efficiency, with reduced training and inference times and a lower parameter count. The source code is available at https://github.com/RobertLeppich/REP-Net.
- Abstract(参考訳): トランスフォーマーの出現により、時系列予測は大きな進歩を遂げたが、効率的なシーケンス表現、メモリ構成、正確なターゲット投影の必要性から、依然として困難である。
時系列予測は依然として困難な課題であり、効果的なシーケンス表現、意味のある情報抽出、正確な将来予測を要求している。
データセットと予測設定はそれぞれ別のタスクを構成し、モデルが正確な予測を生成するために克服しなければならないユニークな課題を提起する。
これらのタスク固有の問題に体系的に対処するため、この研究は時系列予測パイプラインを入力シーケンス表現、情報抽出とメモリ構築、最終的なターゲット投影の3つのコアステージに分解する。
各段階において, 特徴抽出のための畳み込み層や情報抽出のための自己認識機構など, 7つのベンチマークデータセットの評価を含む様々な予測タスクにおいて, 様々なモジュールの有効性を評価するためのアーキテクチャ構成について検討する。
我々のモデルは、トレーニング時間と推論時間を短縮し、パラメータ数を小さくし、計算効率を大幅に向上させながら、最先端の予測精度を達成する。
ソースコードはhttps://github.com/RobertLeppich/REP-Netで公開されている。
関連論文リスト
- Enhancing Foundation Models for Time Series Forecasting via Wavelet-based Tokenization [74.3339999119713]
我々はウェーブレットベースのトークンーザを開発し、時間局所化周波数の空間でモデルが複雑な表現を直接学習できるようにする。
提案手法は,まず入力時系列をスケール・分解し,次に閾値を設定し,ウェーブレット係数を定量化し,最後に予測水平方向の係数を予測する自己回帰モデルを事前学習する。
論文 参考訳(メタデータ) (2024-12-06T18:22:59Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Distillation Enhanced Time Series Forecasting Network with Momentum Contrastive Learning [7.4106801792345705]
長周期時系列予測のための革新的蒸留強化フレームワークであるDE-TSMCLを提案する。
具体的には、タイムスタンプをマスクするかどうかを適応的に学習する学習可能なデータ拡張機構を設計する。
そこで本研究では,時系列のサンプル間および時間内相関を探索するために,モーメントを更新したコントラスト学習タスクを提案する。
複数のタスクからモデル損失を発生させることで、下流予測タスクの効果的な表現を学習することができる。
論文 参考訳(メタデータ) (2024-01-31T12:52:10Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Time Series Forecasting via Semi-Asymmetric Convolutional Architecture
with Global Atrous Sliding Window [0.0]
本稿では,時系列予測の問題に対処するために提案手法を提案する。
現代のモデルのほとんどは、短い範囲の情報のみに焦点を当てており、時系列予測のような問題で致命的なものである。
パフォーマンス上のアドバンテージがあることを実験的に検証した3つの主要なコントリビューションを行います。
論文 参考訳(メタデータ) (2023-01-31T15:07:31Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - Predicting Temporal Sets with Deep Neural Networks [50.53727580527024]
本稿では,時間集合予測のためのディープニューラルネットワークに基づく統合解を提案する。
ユニークな視点は、セットレベルの共起グラフを構築することで要素関係を学ぶことである。
我々は,要素や集合の時間依存性を適応的に学習するアテンションベースのモジュールを設計する。
論文 参考訳(メタデータ) (2020-06-20T03:29:02Z) - A machine learning approach for forecasting hierarchical time series [4.157415305926584]
階層時系列を予測するための機械学習手法を提案する。
予測整合は予測を調整し、階層をまたいで一貫性を持たせるプロセスである。
我々は、階層構造をキャプチャする情報を抽出するディープニューラルネットワークの能力を利用する。
論文 参考訳(メタデータ) (2020-05-31T22:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。