論文の概要: U-Mixer: An Unet-Mixer Architecture with Stationarity Correction for
Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2401.02236v1
- Date: Thu, 4 Jan 2024 12:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 15:06:40.443383
- Title: U-Mixer: An Unet-Mixer Architecture with Stationarity Correction for
Time Series Forecasting
- Title(参考訳): U-Mixer: 時系列予測のための定常補正付きUnet-Mixerアーキテクチャ
- Authors: Xiang Ma, Xuemei Li, Lexin Fang, Tianlong Zhao, Caiming Zhang
- Abstract要約: 時系列予測における非定常性は、深い層を通しての安定した特徴伝達を阻害し、特徴分布を妨害し、学習データ分布の変化を複雑化する。
異なるパッチとチャネル間の局所的な時間的依存関係を別々にキャプチャするU-Mixerを提案する。
U-Mixerは最先端(SOTA)法よりも14.5%,7.7%改善している。
- 参考スコア(独自算出の注目度): 11.55346291812749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is a crucial task in various domains. Caused by
factors such as trends, seasonality, or irregular fluctuations, time series
often exhibits non-stationary. It obstructs stable feature propagation through
deep layers, disrupts feature distributions, and complicates learning data
distribution changes. As a result, many existing models struggle to capture the
underlying patterns, leading to degraded forecasting performance. In this
study, we tackle the challenge of non-stationarity in time series forecasting
with our proposed framework called U-Mixer. By combining Unet and Mixer,
U-Mixer effectively captures local temporal dependencies between different
patches and channels separately to avoid the influence of distribution
variations among channels, and merge low- and high-levels features to obtain
comprehensive data representations. The key contribution is a novel
stationarity correction method, explicitly restoring data distribution by
constraining the difference in stationarity between the data before and after
model processing to restore the non-stationarity information, while ensuring
the temporal dependencies are preserved. Through extensive experiments on
various real-world time series datasets, U-Mixer demonstrates its effectiveness
and robustness, and achieves 14.5\% and 7.7\% improvements over
state-of-the-art (SOTA) methods.
- Abstract(参考訳): 時系列予測は様々な分野において重要なタスクである。
傾向、季節性、不規則な変動などの要因によって、時系列はしばしば非定常を示す。
ディープレイヤを通じた安定した機能伝達を阻害し、機能分布を乱し、学習データの分散変更を複雑にする。
その結果、既存のモデルの多くが基盤となるパターンを捉えるのに苦労し、予測性能が低下した。
本研究では,提案フレームワークであるU-Mixerを用いて時系列予測における非定常性の問題に取り組む。
UnetとMixerを組み合わせることで、U-Mixerは異なるパッチとチャネル間の局所的な時間的依存関係を効果的にキャプチャし、チャネル間の分散変動の影響を回避し、低レベルと高レベルの機能をマージして包括的なデータ表現を得る。
モデル処理前後のデータ間の定常性の差を制約して非定常情報を復元し、時間的依存性を保ちながら、データの分散を明示的に復元する、新たな定常性補正方法が鍵となる。
様々な実世界の時系列データセットに関する広範な実験を通じて、U-Mixerはその有効性と堅牢性を実証し、最先端(SOTA)手法よりも14.5\%と7.7\%改善した。
関連論文リスト
- Learning Graph Structures and Uncertainty for Accurate and Calibrated Time-series Forecasting [65.40983982856056]
本稿では,時系列間の相関を利用して時系列間の構造を学習し,精度の高い正確な予測を行うSTOICを紹介する。
幅広いベンチマークデータセットに対して、STOICは16%の精度とキャリブレーションのよい予測を提供する。
論文 参考訳(メタデータ) (2024-07-02T20:14:32Z) - TimeMixer: Decomposable Multiscale Mixing for Time Series Forecasting [19.88184356154215]
時系列予測は、交通計画や天気予報などのアプリケーションで広く使われている。
TimeMixerは、長期および短期の予測タスクにおいて、一貫した最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-05-23T14:27:07Z) - CLeaRForecast: Contrastive Learning of High-Purity Representations for
Time Series Forecasting [2.5816901096123863]
時系列予測(TSF)は現代社会において重要であり、多くの領域にまたがっている。
従来の表現学習に基づくTSFアルゴリズムは、典型的には、分離された傾向周期表現を特徴とする対照的な学習パラダイムを取り入れている。
CLeaRForecastは,高純度時系列表現をサンプル,特徴量,アーキテクチャ浄化手法を用いて学習するための,新しいコントラスト学習フレームワークである。
論文 参考訳(メタデータ) (2023-12-10T04:37:43Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - Mitigating Shortcut Learning with Diffusion Counterfactuals and Diverse Ensembles [95.49699178874683]
拡散確率モデル(DPM)を利用したアンサンブル多様化フレームワークDiffDivを提案する。
DPMは、相関した入力特徴を示すサンプルを用いて訓練しても、新しい特徴の組み合わせで画像を生成することができることを示す。
そこで本研究では,DPM誘導の多様化は,教師付き信号の追加を必要とせず,ショートカットキューへの依存を取り除くのに十分であることを示す。
論文 参考訳(メタデータ) (2023-11-23T15:47:33Z) - A Multi-Scale Decomposition MLP-Mixer for Time Series Analysis [14.40202378972828]
そこで我々は,MSD-Mixerを提案する。MSD-Mixerは,各レイヤの入力時系列を明示的に分解し,表現することを学ぶマルチスケール分解ミクサーである。
我々は,MSD-Mixerが他の最先端のアルゴリズムよりも効率よく優れていることを示す。
論文 参考訳(メタデータ) (2023-10-18T13:39:07Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Drift-Adjusted And Arbitrated Ensemble Framework For Time Series
Forecasting [0.491574468325115]
時系列データの複雑で進化的な性質のため、時系列予測は難しい問題である。
あらゆる時系列データに対して普遍的に有効な方法は存在しない。
そこで本研究では,そのような分布ドリフトを考慮した再重み付け手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T10:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。