論文の概要: StaTS: Spectral Trajectory Schedule Learning for Adaptive Time Series Forecasting with Frequency Guided Denoiser
- arxiv url: http://arxiv.org/abs/2603.00037v1
- Date: Sun, 08 Feb 2026 09:42:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:07.980613
- Title: StaTS: Spectral Trajectory Schedule Learning for Adaptive Time Series Forecasting with Frequency Guided Denoiser
- Title(参考訳): StaTS:周波数誘導Denoiserを用いた適応時系列予測のためのスペクトル軌道スケジュール学習
- Authors: Jintao Zhang, Zirui Liu, Mingyue Cheng, Xianquan Wang, Zhiding Liu, Qi Liu,
- Abstract要約: StaTSは確率的時系列予測のための拡散モデルであり、更新の交互にノイズスケジュールと雑音を学習する。
複数の実世界のベンチマークの実験では、サンプリングステップが少なく、強いパフォーマンスを維持しながら、一貫した利得を示している。
- 参考スコア(独自算出の注目度): 17.214288935424936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have been used for probabilistic time series forecasting and show strong potential. However, fixed noise schedules often produce intermediate states that are hard to invert and a terminal state that deviates from the near noise assumption. Meanwhile, prior methods rely on time domain conditioning and seldom model schedule induced spectral degradation, which limits structure recovery across noise levels. We propose StaTS, a diffusion model for probabilistic time series forecasting that learns the noise schedule and the denoiser through alternating updates. StaTS includes Spectral Trajectory Scheduler (STS) that learns a data adaptive noise schedule with spectral regularization to improve structural preservation and stepwise invertibility, and Frequency Guided Denoiser (FGD) that estimates schedule induced spectral distortion and uses it to modulate denoising strength for heterogeneous restoration across diffusion steps and variables. A two stage training procedure stabilizes the coupling between schedule learning and denoiser optimization. Experiments on multiple real world benchmarks show consistent gains, while maintaining strong performance with fewer sampling steps. Our code is available at https://github.com/zjt-gpu/StaTS/.
- Abstract(参考訳): 拡散モデルは確率的時系列予測や強いポテンシャルを示すために使われてきた。
しかし、固定ノイズスケジュールは、しばしば逆転しにくい中間状態と、近雑音仮定から逸脱する終端状態を生成する。
一方、先行手法は時間領域条件付けと、騒音レベルの構造回復を制限するスペクトル劣化をほとんど起こさない。
本研究では,確率的時系列予測のための拡散モデル StaTS を提案する。
StaTSには、スペクトル正規化によるデータ適応ノイズスケジュールを学習し、構造保存と段階的可逆性を改善するためのスペクトル軌道スケジューリング(STS)と、スケジュール誘発スペクトル歪みを推定し、拡散ステップと変数をまたいだ異種復元のための復調強度を変調する周波数ガイドデノイザ(FGD)が含まれている。
2段階の訓練手順は、スケジュール学習とデノイザ最適化の結合を安定化させる。
複数の実世界のベンチマークの実験では、サンプリングステップが少なく、強いパフォーマンスを維持しながら、一貫した利得を示している。
私たちのコードはhttps://github.com/zjt-gpu/StaTS/で利用可能です。
関連論文リスト
- Information-Guided Noise Allocation for Efficient Diffusion Training [50.49440376762109]
InfoNoiseはデータ適応型トレーニングノイズスケジュールであり、スケジュール設計を情報誘導型ノイズサンプリング分布に置き換える。
自然画像のベンチマーク全体において、InfoNoiseはEDMスタイルのスケジュールにマッチするか、あるいは超えている。
全体としてInfoNoiseは、ノイズスケジューリングをデータ適応化し、拡散モデルがドメイン全体に広がるにつれて、データセットごとのスケジュール設計の必要性を減らす。
論文 参考訳(メタデータ) (2026-02-20T22:45:01Z) - TIFO: Time-Invariant Frequency Operator for Stationarity-Aware Representation Learning in Time Series [30.009887153375345]
非定常時系列予測は、トレーニングデータとテストデータを生成する分布が異なるため、分布シフトの問題に悩まされる。
既存の方法は、例えば個々のサンプルから低次モーメントを除去することで依存を緩和しようとする。
本稿では、周波数スペクトル上で定常性を考慮した重み付けを学習するTIFO(Time-Invariant Frequency Operator)を提案する。
論文 参考訳(メタデータ) (2026-02-19T06:46:54Z) - DropoutTS: Sample-Adaptive Dropout for Robust Time Series Forecasting [59.868414584142336]
DropoutTS はモデルに依存しないプラグインで、パラダイムを "What" から "How much" にシフトします。
ノイズを適応的なドロップアウト率にマッピングする - きめ細かい忠実さを維持しながら、急激な変動を選択的に抑制する。
論文 参考訳(メタデータ) (2026-01-29T13:49:20Z) - Diffusion-TS: Interpretable Diffusion for General Time Series Generation [6.639630994040322]
Diffusion-TSは、高品質な時系列サンプルを生成する新しい拡散ベースのフレームワークである。
各拡散ステップのノイズの代わりにサンプルを直接再構成するようにモデルを訓練し、フーリエに基づく損失項を組み合わせた。
その結果,Diffusion-TSは時系列の様々な現実的解析において最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-03-04T05:39:23Z) - CLeaRForecast: Contrastive Learning of High-Purity Representations for
Time Series Forecasting [2.5816901096123863]
時系列予測(TSF)は現代社会において重要であり、多くの領域にまたがっている。
従来の表現学習に基づくTSFアルゴリズムは、典型的には、分離された傾向周期表現を特徴とする対照的な学習パラダイムを取り入れている。
CLeaRForecastは,高純度時系列表現をサンプル,特徴量,アーキテクチャ浄化手法を用いて学習するための,新しいコントラスト学習フレームワークである。
論文 参考訳(メタデータ) (2023-12-10T04:37:43Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - SpecGrad: Diffusion Probabilistic Model based Neural Vocoder with
Adaptive Noise Spectral Shaping [51.698273019061645]
SpecGradは拡散雑音に適応し、その時間変化スペクトル包絡が条件付き対数メル分光器に近づく。
時間周波数領域で処理され、計算コストは従来のDDPMベースのニューラルボコーダとほぼ同じである。
論文 参考訳(メタデータ) (2022-03-31T02:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。