論文の概要: Auto-Regressive Moving Diffusion Models for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2412.09328v1
- Date: Thu, 12 Dec 2024 14:51:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 17:02:04.321229
- Title: Auto-Regressive Moving Diffusion Models for Time Series Forecasting
- Title(参考訳): 時系列予測のための自己回帰移動拡散モデル
- Authors: Jiaxin Gao, Qinglong Cao, Yuntian Chen,
- Abstract要約: 時系列予測(TSF)は,様々な領域において不可欠であり,近年の拡散型TSFモデルの進歩は大きな可能性を示唆している。
本稿では,連続的な拡散に基づくTSFを実現するために,新しい自己回帰移動拡散(ARMD)モデルを提案する。
本稿では,未来系列を初期状態として,歴史系列を最終状態として,拡散過程を再解釈する。
- 参考スコア(独自算出の注目度): 2.3814052021083354
- License:
- Abstract: Time series forecasting (TSF) is essential in various domains, and recent advancements in diffusion-based TSF models have shown considerable promise. However, these models typically adopt traditional diffusion patterns, treating TSF as a noise-based conditional generation task. This approach neglects the inherent continuous sequential nature of time series, leading to a fundamental misalignment between diffusion mechanisms and the TSF objective, thereby severely impairing performance. To bridge this misalignment, and inspired by the classic Auto-Regressive Moving Average (ARMA) theory, which views time series as continuous sequential progressions evolving from previous data points, we propose a novel Auto-Regressive Moving Diffusion (ARMD) model to first achieve the continuous sequential diffusion-based TSF. Unlike previous methods that start from white Gaussian noise, our model employs chain-based diffusion with priors, accurately modeling the evolution of time series and leveraging intermediate state information to improve forecasting accuracy and stability. Specifically, our approach reinterprets the diffusion process by considering future series as the initial state and historical series as the final state, with intermediate series generated using a sliding-based technique during the forward process. This design aligns the diffusion model's sampling procedure with the forecasting objective, resulting in an unconditional, continuous sequential diffusion TSF model. Extensive experiments conducted on seven widely used datasets demonstrate that our model achieves state-of-the-art performance, significantly outperforming existing diffusion-based TSF models. Our code is available on GitHub: https://github.com/daxin007/ARMD.
- Abstract(参考訳): 時系列予測(TSF)は,様々な領域において不可欠であり,近年の拡散型TSFモデルの進歩は大きな可能性を示唆している。
しかしながら、これらのモデルは通常伝統的な拡散パターンを採用し、TSFをノイズベースの条件生成タスクとして扱う。
このアプローチは時系列の連続的な性質を無視し、拡散機構とTSFの目的との根本的な相違を生じさせ、性能を著しく損なう。
時系列を従来のデータポイントから進化する連続的な逐次進行とみなす古典的自己回帰移動平均(ARMA)理論に着想を得て,まず連続的な拡散に基づくTSFを実現するための新しい自己回帰移動拡散(ARMD)モデルを提案する。
白ガウスノイズから始まる従来の手法とは異なり、我々のモデルは前者との連鎖拡散を利用し、時系列の進化を正確にモデル化し、中間状態情報を活用して予測精度と安定性を向上させる。
具体的には,未来系列を初期状態とし,歴史系列を最終状態とすることで拡散過程を再解釈し,前方過程においてスライディングベース手法を用いて中間系列を生成する。
この設計は、拡散モデルのサンプリング手順と予測対象とを一致させ、不条件連続拡散TSFモデルをもたらす。
広範に使用されている7つのデータセットに対して行われた大規模な実験により、我々のモデルは最先端のパフォーマンスを達成し、既存の拡散ベースのTSFモデルよりも大幅に優れていることが示された。
私たちのコードはGitHubで入手可能です。
関連論文リスト
- Continuous Diffusion Model for Language Modeling [57.396578974401734]
離散データに対する既存の連続拡散モデルは、離散的アプローチと比較して性能が限られている。
本稿では,下層の分類分布の幾何学を組み込んだ言語モデリングのための連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-17T08:54:29Z) - ACDiT: Interpolating Autoregressive Conditional Modeling and Diffusion Transformer [95.80384464922147]
連続的な視覚生成には、フルシーケンスの拡散に基づくアプローチが必要である。
本稿では,自己回帰的ブロックワイド条件拡散変換器ACDiTを提案する。
本稿では,拡散目標を訓練しながら,視覚理解タスクにACDiTをシームレスに使用できることを実証する。
論文 参考訳(メタデータ) (2024-12-10T18:13:20Z) - UTSD: Unified Time Series Diffusion Model [13.555837288440946]
多領域確率分布をモデル化するために、初めて統一時系列拡散モデルを確立する。
我々は、主要なベンチマークで広範な実験を行い、事前訓練されたUTSDは、すべてのデータドメインにおける既存の基礎モデルより優れています。
論文 参考訳(メタデータ) (2024-12-04T06:42:55Z) - Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - MG-TSD: Multi-Granularity Time Series Diffusion Models with Guided Learning Process [26.661721555671626]
本稿では,最先端の予測性能を実現する新しい多粒度時系列(MG-TSD)モデルを提案する。
われわれのアプローチは外部データに頼らず、様々な領域にまたがって汎用的で適用可能である。
論文 参考訳(メタデータ) (2024-03-09T01:15:03Z) - FreDF: Learning to Forecast in Frequency Domain [56.24773675942897]
時系列モデリングは、歴史的シーケンスとラベルシーケンスの両方に自己相関が存在するという点で、独特な課題である。
本稿では、周波数領域の予測を学習することでラベル自己相関の複雑さを回避できる周波数強調直接予測(FreDF)を導入する。
論文 参考訳(メタデータ) (2024-02-04T08:23:41Z) - Predict, Refine, Synthesize: Self-Guiding Diffusion Models for
Probabilistic Time Series Forecasting [10.491628898499684]
時系列の非条件学習拡散モデルであるTSDiffを提案する。
提案する自己誘導機構により、補助的ネットワークやトレーニング手順の変更を必要とせず、推論中に下流タスクに対してTSDiffを条件付けることができる。
本研究では,予測,改良,合成データ生成という3つの時系列タスクにおいて,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-21T10:56:36Z) - Non-autoregressive Conditional Diffusion Models for Time Series
Prediction [3.9722979176564763]
TimeDiffは、高品質な時系列予測を実現する非自己回帰拡散モデルである。
我々はTimeDiffが既存の時系列拡散モデルより一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T08:53:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。