論文の概要: DDTime: Dataset Distillation with Spectral Alignment and Information Bottleneck for Time-Series Forecasting
- arxiv url: http://arxiv.org/abs/2511.16715v1
- Date: Thu, 20 Nov 2025 16:50:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.77264
- Title: DDTime: Dataset Distillation with Spectral Alignment and Information Bottleneck for Time-Series Forecasting
- Title(参考訳): DDTime: 時系列予測のためのスペクトルアライメントと情報ボトルネックを用いたデータセット蒸留
- Authors: Yuqi Li, Kuiye Ding, Chuanguang Yang, Hao Wang, Haoxuan Wang, Huiran Duan, Junming Liu, Yingli Tian,
- Abstract要約: 時系列予測は多くの領域で基本となっているが、正確なモデルを訓練するには大規模なデータセットと計算資源が必要となることが多い。
本稿では,一階凝縮分解に基づく軽量・プラグイン蒸留フレームワークDDTimeを提案する。
DDTimeは既存の蒸留法を一貫して上回り、約30%の精度向上を実現し、約2.49%の計算オーバーヘッドを導入した。
- 参考スコア(独自算出の注目度): 28.005308500582405
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Time-series forecasting is fundamental across many domains, yet training accurate models often requires large-scale datasets and substantial computational resources. Dataset distillation offers a promising alternative by synthesizing compact datasets that preserve the learning behavior of full data. However, extending dataset distillation to time-series forecasting is non-trivial due to two fundamental challenges: 1.temporal bias from strong autocorrelation, which leads to distorted value-term alignment between teacher and student models; and 2.insufficient diversity among synthetic samples, arising from the absence of explicit categorical priors to regularize trajectory variety. In this work, we propose DDTime, a lightweight and plug-in distillation framework built upon first-order condensation decomposition. To tackle Challenge 1, it revisits value-term alignment through temporal statistics and introduces a frequency-domain alignment mechanism to mitigate autocorrelation-induced bias, ensuring spectral consistency and temporal fidelity. To address Challenge 2, we further design an inter-sample regularization inspired by the information bottleneck principle, which enhances diversity and maximizes information density across synthetic trajectories. The combined objective is theoretically compatible with a wide range of condensation paradigms and supports stable first-order optimization. Extensive experiments on 20 benchmark datasets and diverse forecasting architectures demonstrate that DDTime consistently outperforms existing distillation methods, achieving about 30% relative accuracy gains while introducing about 2.49% computational overhead. All code and distilled datasets will be released.
- Abstract(参考訳): 時系列予測は多くの領域で基本的なものであるが、正確なモデルを訓練するには大規模なデータセットとかなりの計算資源が必要であることが多い。
データセットの蒸留は、完全なデータの学習行動を保存するために、コンパクトなデータセットを合成することで、有望な代替手段を提供する。
しかし, データセットの蒸留を時系列予測に拡張することは, 1. 教師と学生のモデル間の時間的偏差が歪んだ値-時間的アライメントをもたらす, 1. 明示的なカテゴリーの先行がないことから生じる合成サンプルの多様性が不十分である,という2つの根本的な課題により, 簡単ではない。
本研究では,一階凝縮分解に基づく軽量・プラグイン蒸留フレームワークDDTimeを提案する。
チャレンジ1に取り組むために、時間統計を通じて価値の長期的アライメントを再考し、周波数領域アライメント機構を導入し、自己相関によるバイアスを緩和し、スペクトル一貫性と時間的忠実性を確保する。
課題2に対処するため、我々は、情報のボトルネック原理に着想を得たサンプル間正規化を更に設計し、多様性を高め、合成軌跡間の情報密度を最大化する。
組み合わせた目的は理論上は幅広い凝縮パラダイムと互換性があり、安定な一階最適化をサポートする。
20のベンチマークデータセットと多様な予測アーキテクチャに関する大規模な実験は、DDTimeが既存の蒸留法を一貫して上回り、約30%の精度向上を実現し、約2.49%の計算オーバーヘッドを導入したことを示している。
すべてのコードと蒸留データセットがリリースされる。
関連論文リスト
- A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - TIMED: Adversarial and Autoregressive Refinement of Diffusion-Based Time Series Generation [0.31498833540989407]
TIMEDは、フォワード-リバース拡散プロセスを通じてグローバル構造をキャプチャする統合生成フレームワークである。
特徴空間における実および合成分布をさらに整合させるため、TIMEDは最大平均離散性(MMD)損失を取り入れている。
我々は、TIMEDが最先端の生成モデルよりも現実的で時間的に一貫性のあるシーケンスを生成することを示す。
論文 参考訳(メタデータ) (2025-09-23T23:05:40Z) - Time-o1: Time-Series Forecasting Needs Transformed Label Alignment [50.54348432664401]
Time-o1は、時系列予測に適した変換強化学習目標である。
中心となる考え方は、ラベルシーケンスを区別された意味を持つ非相関なコンポーネントに変換することである。
Time-o1は最先端のパフォーマンスを実現し、様々な予測モデルと互換性がある。
論文 参考訳(メタデータ) (2025-05-23T13:00:35Z) - Spatial-Temporal-Spectral Unified Modeling for Remote Sensing Dense Prediction [20.1863553357121]
リモートセンシングのための現在のディープラーニングアーキテクチャは、基本的に堅固である。
本稿では,統合モデリングのための空間時間スペクトル統一ネットワーク(STSUN)について紹介する。
STSUNは任意の空間サイズ、時間長、スペクトル帯域で入力および出力データに適応することができる。
様々な密集した予測タスクと多様な意味クラス予測を統一する。
論文 参考訳(メタデータ) (2025-05-18T07:39:17Z) - Enhancing Foundation Models for Time Series Forecasting via Wavelet-based Tokenization [74.3339999119713]
我々はウェーブレットベースのトークンーザを開発し、時間局所化周波数の空間でモデルが複雑な表現を直接学習できるようにする。
提案手法は,まず入力時系列をスケール・分解し,次に閾値を設定し,ウェーブレット係数を定量化し,最後に予測水平方向の係数を予測する自己回帰モデルを事前学習する。
論文 参考訳(メタデータ) (2024-12-06T18:22:59Z) - Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - From Incomplete Coarse-Grained to Complete Fine-Grained: A Two-Stage Framework for Spatiotemporal Data Reconstruction [11.18240409124747]
DDPM(Denoising Diffusion Probabilistic Model)に基づく2段階データ推論フレームワークDiffconを導入する。
複数の実世界のデータセットで実験を行い、本手法の優位性を実証する。
論文 参考訳(メタデータ) (2024-10-05T13:16:53Z) - CondTSF: One-line Plugin of Dataset Condensation for Time Series Forecasting [22.473436770730657]
データセット凝縮の目的は、合成データセットでトレーニングされたモデルが、完全なデータセットでトレーニングされたモデルと互換性を持って動作できることを保証することである。
分類において、合成データは、全データセットで訓練されたモデルと合成データセットで訓練されたモデルが同じ入力に対して同一のラベルを生成する場合、よく蒸留されると考えられる。
TS予測において, 合成データ蒸留の有効性は, モデル間の距離によって決定される。
論文 参考訳(メタデータ) (2024-06-04T09:18:20Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。