論文の概要: Modeling Temporal Dependencies within the Target for Long-Term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2406.04777v2
- Date: Tue, 17 Dec 2024 07:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:54:46.394980
- Title: Modeling Temporal Dependencies within the Target for Long-Term Time Series Forecasting
- Title(参考訳): 長期連続予測のためのターゲット内時間依存性のモデル化
- Authors: Qi Xiong, Kai Tang, Minbo Ma, Ji Zhang, Jie Xu, Tianrui Li,
- Abstract要約: 長期時系列予測(LTSF)は、様々な領域において重要な課題である。
我々は、時間依存アライメント(TDAlign)という、新規で汎用的な時間的モデリングフレームワークを提案する。
プラグアンドプレイのフレームワークとして、TDAlignは計算オーバーヘッドを最小限に抑えて既存のメソッドを拡張する。
TDAlignは平均して、textbf1.47% によるベースライン予測エラーを textbf9.19% に削減し、textbf4.57% から textbf15.78% に変更し、大幅なパフォーマンス改善を強調している。
- 参考スコア(独自算出の注目度): 10.45171204518662
- License:
- Abstract: Long-term time series forecasting (LTSF) is a critical task across diverse domains. Despite significant advancements in LTSF research, we identify a performance bottleneck in existing LTSF methods caused by the inadequate modeling of Temporal Dependencies within the Target (TDT). To address this issue, we propose a novel and generic temporal modeling framework, Temporal Dependency Alignment (TDAlign), that equips existing LTSF methods with TDT learning capabilities. TDAlign introduces two key innovations: 1) a loss function that aligns the change values between adjacent time steps in the predictions with those in the target, ensuring consistency with variation patterns, and 2) an adaptive loss balancing strategy that seamlessly integrates the new loss function with existing LTSF methods without introducing additional learnable parameters. As a plug-and-play framework, TDAlign enhances existing methods with minimal computational overhead, featuring only linear time complexity and constant space complexity relative to the prediction length. Extensive experiments on six strong LTSF baselines across seven real-world datasets demonstrate the effectiveness and flexibility of TDAlign. On average, TDAlign reduces baseline prediction errors by \textbf{1.47\%} to \textbf{9.19\%} and change value errors by \textbf{4.57\%} to \textbf{15.78\%}, highlighting its substantial performance improvements.
- Abstract(参考訳): 長期時系列予測(LTSF)は、様々な領域において重要な課題である。
LTSF研究の進歩にもかかわらず、TDT(Target)における時間依存の不十分なモデリングによる既存のLTSF手法のパフォーマンスボトルネックを同定する。
この問題に対処するために,既存のLTSFメソッドにTDT学習機能を持たせる,新規で汎用的な時間依存アライメント(TDAlign)を提案する。
TDAlignは2つの重要なイノベーションを紹介している。
1) 変動パターンとの整合性を確保し、予測における隣接時間ステップ間の変化値を目標値と整合させる損失関数
2)新たな損失関数を既存のLTSFメソッドとシームレスに統合する適応的損失分散戦略。
プラグ・アンド・プレイのフレームワークとして、TDAlignは計算オーバーヘッドを最小限に抑えて既存の手法を拡張し、線形時間複雑性と予測長に対する一定の空間複雑性のみを特徴とする。
TDAlignの有効性と柔軟性を示すために、7つの実世界のデータセットにまたがる6つの強力なLTSFベースラインに関する大規模な実験を行った。
TDAlignは平均して、ベースライン予測エラーを \textbf{1.47\%} から \textbf{9.19\%} に減らし、値エラーを \textbf{4.57\%} から \textbf{15.78\%} に変更し、その大幅な性能改善を強調している。
関連論文リスト
- Disentangled Interpretable Representation for Efficient Long-term Time Series Forecasting [8.315265596107686]
業界 5.0 が時系列予測(LTSF)の新たな課題を導入
既存のディープラーニングと線形モデルは、しばしば過度の複雑さに悩まされ、直感的に解釈できない。
本稿では,Dentangled Interpretable である DiPE-Linear を提案する。
線形ネットワーク。
論文 参考訳(メタデータ) (2024-11-26T09:33:09Z) - LSEAttention is All You Need for Time Series Forecasting [0.0]
トランスフォーマーベースのアーキテクチャは自然言語処理とコンピュータビジョンにおいて顕著な成功を収めた。
これまでの研究では、伝統的な注意機構が、この領域におけるそれらの有効性を制限する重要な要素として特定されてきた。
本稿では,トランスフォーマーを用いた時系列予測において,エントロピー崩壊を緩和し,不安定性をトレーニングするための新しいアプローチであるLATSTを紹介する。
論文 参考訳(メタデータ) (2024-10-31T09:09:39Z) - Temporal Feature Matters: A Framework for Diffusion Model Quantization [105.3033493564844]
拡散モデルはマルチラウンド・デノナイジングの時間ステップに依存している。
3つの戦略を含む新しい量子化フレームワークを導入する。
このフレームワークは時間情報のほとんどを保存し、高品質なエンドツーエンド生成を保証する。
論文 参考訳(メタデータ) (2024-07-28T17:46:15Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Adaptive Multi-Scale Decomposition Framework for Time Series Forecasting [26.141054975797868]
時系列予測(TSF)のための新しい適応型マルチスケール分解(AMD)フレームワークを提案する。
我々のフレームワークは時系列を複数のスケールで異なる時間パターンに分解し、MDM(Multi-Scale Decomposable Mixing)ブロックを活用する。
提案手法は,時間依存性とチャネル依存性の両方を効果的にモデル化し,マルチスケールデータ統合を改良するために自己相関を利用する。
論文 参考訳(メタデータ) (2024-06-06T05:27:33Z) - Unlocking the Power of Patch: Patch-Based MLP for Long-Term Time Series Forecasting [0.0]
近年,Transformer アーキテクチャを改良し,長期連続予測タスクの有効性を実証する研究が進められている。
これらのモデルの有効性は, 適用されたパッチ機構に大きく寄与する。
LTSFタスクのための新しいシンプルなパッチベースコンポーネント(PatchMLP)を提案する。
論文 参考訳(メタデータ) (2024-05-22T12:12:20Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Long-term Time Series Forecasting based on Decomposition and Neural
Ordinary Differential Equations [23.51377034692954]
長期の時系列予測は、金融投資、医療、交通、天気予報など様々な分野で研究されている課題である。
本稿では,線形常微分方程式(ODE)に基づくモデルと,データ統計特性に基づく時系列分解法を提案する。
論文 参考訳(メタデータ) (2023-11-08T08:22:38Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。