論文の概要: TDT Loss Takes It All: Integrating Temporal Dependencies among Targets into Non-Autoregressive Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2406.04777v1
- Date: Fri, 7 Jun 2024 09:21:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 14:50:13.585522
- Title: TDT Loss Takes It All: Integrating Temporal Dependencies among Targets into Non-Autoregressive Time Series Forecasting
- Title(参考訳): TDTの損失:ターゲット間の時間依存性を非自己回帰時系列予測に統合する
- Authors: Qi Xiong, Kai Tang, Minbo Ma, Jie Xu, Tianrui Li,
- Abstract要約: ターゲット間の時間的依存関係(TDT)の学習は、予測シーケンスを参照する時系列予測の改善に寄与する。
我々は,TDT学習を非自己回帰的手法に統合することは,効率的な時系列予測の追求に不可欠であると主張している。
本稿では,パラメータフリーかつプラグアンドプレイの最適化,すなわち TDT Loss を提案する。
- 参考スコア(独自算出の注目度): 7.817181045664602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning temporal dependencies among targets (TDT) benefits better time series forecasting, where targets refer to the predicted sequence. Although autoregressive methods model TDT recursively, they suffer from inefficient inference and error accumulation. We argue that integrating TDT learning into non-autoregressive methods is essential for pursuing effective and efficient time series forecasting. In this study, we introduce the differencing approach to represent TDT and propose a parameter-free and plug-and-play solution through an optimization objective, namely TDT Loss. It leverages the proportion of inconsistent signs between predicted and ground truth TDT as an adaptive weight, dynamically balancing target prediction and fine-grained TDT fitting. Importantly, TDT Loss incurs negligible additional cost, with only $\mathcal{O}(n)$ increased computation and $\mathcal{O}(1)$ memory requirements, while significantly enhancing the predictive performance of non-autoregressive models. To assess the effectiveness of TDT loss, we conduct extensive experiments on 7 widely used datasets. The experimental results of plugging TDT loss into 6 state-of-the-art methods show that out of the 168 experiments, 75.00\% and 94.05\% exhibit improvements in terms of MSE and MAE with the maximum 24.56\% and 16.31\%, respectively.
- Abstract(参考訳): ターゲット間の時間的依存関係(TDT)の学習は、予測シーケンスを参照する時系列予測の改善に寄与する。
自己回帰的手法はTDTを再帰的にモデル化するが、非効率な推論とエラーの蓄積に悩まされる。
我々は,TDT学習を非自己回帰的手法に統合することは,効率的な時系列予測の追求に不可欠であると主張している。
本研究では,TDTを表現するための差分手法を導入し,パラメータフリーでプラグアンドプレイなソリューション,すなわちTDT損失を最適化する手法を提案する。
これは、予測真理と基底真理のTDT間の矛盾する符号の割合を適応重みとして利用し、ターゲット予測と微粒なTDTフィッティングを動的にバランスする。
重要なことに、TDT Lossは無視できる追加コストを発生させ、計算量が増加する$\mathcal{O}(n)$と$\mathcal{O}(1)$メモリ要件が増大し、非自己回帰モデルの予測性能が大幅に向上した。
TDT損失の有効性を評価するため,広く使用されている7つのデータセットについて広範な実験を行った。
6つの最先端手法にTDTの損失を埋め込むことの実験結果から、168実験のうち75.00\%と94.05\%はそれぞれ最大24.56\%と16.31\%のMSEとMAEの改善を示した。
関連論文リスト
- Disentangled Interpretable Representation for Efficient Long-term Time Series Forecasting [8.315265596107686]
業界 5.0 が時系列予測(LTSF)の新たな課題を導入
既存のディープラーニングと線形モデルは、しばしば過度の複雑さに悩まされ、直感的に解釈できない。
本稿では,Dentangled Interpretable である DiPE-Linear を提案する。
線形ネットワーク。
論文 参考訳(メタデータ) (2024-11-26T09:33:09Z) - LSEAttention is All You Need for Time Series Forecasting [0.0]
トランスフォーマーベースのアーキテクチャは自然言語処理とコンピュータビジョンにおいて顕著な成功を収めた。
これまでの研究では、伝統的な注意機構が、この領域におけるそれらの有効性を制限する重要な要素として特定されてきた。
本稿では,トランスフォーマーを用いた時系列予測において,エントロピー崩壊を緩和し,不安定性をトレーニングするための新しいアプローチであるLATSTを紹介する。
論文 参考訳(メタデータ) (2024-10-31T09:09:39Z) - Temporal Feature Matters: A Framework for Diffusion Model Quantization [105.3033493564844]
拡散モデルはマルチラウンド・デノナイジングの時間ステップに依存している。
3つの戦略を含む新しい量子化フレームワークを導入する。
このフレームワークは時間情報のほとんどを保存し、高品質なエンドツーエンド生成を保証する。
論文 参考訳(メタデータ) (2024-07-28T17:46:15Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Adaptive Multi-Scale Decomposition Framework for Time Series Forecasting [26.141054975797868]
時系列予測(TSF)のための新しい適応型マルチスケール分解(AMD)フレームワークを提案する。
我々のフレームワークは時系列を複数のスケールで異なる時間パターンに分解し、MDM(Multi-Scale Decomposable Mixing)ブロックを活用する。
提案手法は,時間依存性とチャネル依存性の両方を効果的にモデル化し,マルチスケールデータ統合を改良するために自己相関を利用する。
論文 参考訳(メタデータ) (2024-06-06T05:27:33Z) - Unlocking the Power of Patch: Patch-Based MLP for Long-Term Time Series Forecasting [0.0]
近年,Transformer アーキテクチャを改良し,長期連続予測タスクの有効性を実証する研究が進められている。
これらのモデルの有効性は, 適用されたパッチ機構に大きく寄与する。
LTSFタスクのための新しいシンプルなパッチベースコンポーネント(PatchMLP)を提案する。
論文 参考訳(メタデータ) (2024-05-22T12:12:20Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Long-term Time Series Forecasting based on Decomposition and Neural
Ordinary Differential Equations [23.51377034692954]
長期の時系列予測は、金融投資、医療、交通、天気予報など様々な分野で研究されている課題である。
本稿では,線形常微分方程式(ODE)に基づくモデルと,データ統計特性に基づく時系列分解法を提案する。
論文 参考訳(メタデータ) (2023-11-08T08:22:38Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。