論文の概要: DistDF: Time-Series Forecasting Needs Joint-Distribution Wasserstein Alignment
- arxiv url: http://arxiv.org/abs/2510.24574v1
- Date: Tue, 28 Oct 2025 16:09:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.266078
- Title: DistDF: Time-Series Forecasting Needs Joint-Distribution Wasserstein Alignment
- Title(参考訳): DistDF: 時系列予測には共同配信のWassersteinアライメントが必要
- Authors: Hao Wang, Licheng Pan, Yuan Lu, Zhixuan Chu, Xiaoxi Li, Shuting He, Zhichao Chen, Haoxuan Li, Qingsong Wen, Zhouchen Lin,
- Abstract要約: トレーニング時系列予測モデルは、モデル予測の条件分布とラベルシーケンスの条件分布の整合性を必要とする。
本研究では,条件予測とラベル分布との差を最小限に抑えてアライメントを実現するDistDFを提案する。
- 参考スコア(独自算出の注目度): 92.70019102733453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training time-series forecast models requires aligning the conditional distribution of model forecasts with that of the label sequence. The standard direct forecast (DF) approach resorts to minimize the conditional negative log-likelihood of the label sequence, typically estimated using the mean squared error. However, this estimation proves to be biased in the presence of label autocorrelation. In this paper, we propose DistDF, which achieves alignment by alternatively minimizing a discrepancy between the conditional forecast and label distributions. Because conditional discrepancies are difficult to estimate from finite time-series observations, we introduce a newly proposed joint-distribution Wasserstein discrepancy for time-series forecasting, which provably upper bounds the conditional discrepancy of interest. This discrepancy admits tractable, differentiable estimation from empirical samples and integrates seamlessly with gradient-based training. Extensive experiments show that DistDF improves the performance diverse forecast models and achieves the state-of-the-art forecasting performance. Code is available at https://anonymous.4open.science/r/DistDF-F66B.
- Abstract(参考訳): トレーニング時系列予測モデルは、モデル予測の条件分布とラベルシーケンスの条件分布の整合性を必要とする。
標準直接予測(DF)アプローチは、平均二乗誤差を用いて推定されるラベルシーケンスの条件付き負の対数類似度を最小化する。
しかし、この推定はラベル自己相関の存在に偏りがあることを証明している。
本稿では,条件予測とラベル分布の差を最小限に抑えてアライメントを実現するDistDFを提案する。
有限時系列観測から条件差を推定することは困難であるため,新たに提案された時系列予測のための共同分布ワッサースタイン差分法を導入する。
この相違は、経験的なサンプルから抽出可能で微分可能な推定を認め、勾配に基づくトレーニングとシームレスに統合する。
大規模な実験により,DistDFは様々な予測モデルを改善し,最先端の予測性能を実現する。
コードはhttps://anonymous.4open.science/r/DistDF-F66Bで入手できる。
関連論文リスト
- ResCP: Reservoir Conformal Prediction for Time Series Forecasting [39.81023599249223]
コンフォーマル予測は、交換可能なデータに対して、分散のない予測間隔を構築するための強力なフレームワークを提供する。
本稿では,Reservoir Conformal Prediction (ResCP)を提案する。
論文 参考訳(メタデータ) (2025-10-06T17:37:44Z) - RDIT: Residual-based Diffusion Implicit Models for Probabilistic Time Series Forecasting [4.140149411004857]
RDITは、点推定と残差に基づく条件拡散と双方向のMambaネットワークを組み合わせたプラグアンドプレイフレームワークである。
RDITは, 強いベースラインに比べてCRPSの低下, 高速推論, カバレッジの向上を実現している。
論文 参考訳(メタデータ) (2025-09-02T14:06:29Z) - Bridging the Last Mile of Prediction: Enhancing Time Series Forecasting with Conditional Guided Flow Matching [9.465542901469815]
Conditional Guided Flow Matching (CGFM) は、補助的な予測モデルから出力を統合することで、フローマッチングを拡張するモデルに依存しないフレームワークである。
CGFMは、歴史的データを条件とガイダンスの両方に取り入れ、一方の条件付きパスを使用し、アフィンパスを用いて経路空間を拡大する。
データセットとベースラインにわたる実験は、CGFMが常に最先端のモデルより優れており、予測が進んでいることを示している。
論文 参考訳(メタデータ) (2025-07-09T18:03:31Z) - FreDF: Learning to Forecast in the Frequency Domain [54.2091536822376]
時系列モデリングは、歴史的データと将来のシーケンスの両方における自己相関による固有の課題を提示する。
本稿では,周波数領域の予測学習によりラベル自己相関を緩和する周波数強調直接予測(FreDF)を提案する。
論文 参考訳(メタデータ) (2024-02-04T08:23:41Z) - When Rigidity Hurts: Soft Consistency Regularization for Probabilistic
Hierarchical Time Series Forecasting [69.30930115236228]
確率的階層的時系列予測は時系列予測の重要な変種である。
ほとんどの手法は点予測に焦点を絞っており、確率的確率分布を十分に調整していない。
ProFHiTは,階層全体の予測分布を共同でモデル化する完全確率的階層予測モデルである。
論文 参考訳(メタデータ) (2023-10-17T20:30:16Z) - When Rigidity Hurts: Soft Consistency Regularization for Probabilistic
Hierarchical Time Series Forecasting [69.30930115236228]
確率的階層的時系列予測は時系列予測の重要な変種である。
ほとんどの手法は点予測に焦点を絞っており、確率的確率分布を十分に調整していない。
ProFHiTは,階層全体の予測分布を共同でモデル化する完全確率的階層予測モデルである。
論文 参考訳(メタデータ) (2022-06-16T06:13:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。