論文の概要: CLeaRForecast: Contrastive Learning of High-Purity Representations for
Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2312.05758v1
- Date: Sun, 10 Dec 2023 04:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:48:09.367697
- Title: CLeaRForecast: Contrastive Learning of High-Purity Representations for
Time Series Forecasting
- Title(参考訳): CLeaRForecast:時系列予測のための高純度表現の対比学習
- Authors: Jiaxin Gao, Yuxiao Hu, Qinglong Cao, Siqi Dai, Yuntian Chen
- Abstract要約: 時系列予測(TSF)は現代社会において重要であり、多くの領域にまたがっている。
従来の表現学習に基づくTSFアルゴリズムは、典型的には、分離された傾向周期表現を特徴とする対照的な学習パラダイムを取り入れている。
CLeaRForecastは,高純度時系列表現をサンプル,特徴量,アーキテクチャ浄化手法を用いて学習するための,新しいコントラスト学習フレームワークである。
- 参考スコア(独自算出の注目度): 2.5816901096123863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting (TSF) holds significant importance in modern society,
spanning numerous domains. Previous representation learning-based TSF
algorithms typically embrace a contrastive learning paradigm featuring
segregated trend-periodicity representations. Yet, these methodologies
disregard the inherent high-impact noise embedded within time series data,
resulting in representation inaccuracies and seriously demoting the forecasting
performance. To address this issue, we propose CLeaRForecast, a novel
contrastive learning framework to learn high-purity time series representations
with proposed sample, feature, and architecture purifying methods. More
specifically, to avoid more noise adding caused by the transformations of
original samples (series), transformations are respectively applied for trendy
and periodic parts to provide better positive samples with obviously less
noise. Moreover, we introduce a channel independent training manner to mitigate
noise originating from unrelated variables in the multivariate series. By
employing a streamlined deep-learning backbone and a comprehensive global
contrastive loss function, we prevent noise introduction due to redundant or
uneven learning of periodicity and trend. Experimental results show the
superior performance of CLeaRForecast in various downstream TSF tasks.
- Abstract(参考訳): 時系列予測(TSF)は多くの領域にまたがる現代社会において重要な意味を持つ。
従来の表現型学習ベースのtsfアルゴリズムは、典型的な対比型学習パラダイムを採用しており、傾向周期性表現を分離している。
しかし、これらの手法は、時系列データに埋め込まれた固有の高インパクトノイズを無視し、表現の不正確さと予測性能を著しく低下させる。
CLeaRForecastは,高純度時系列表現をサンプル,特徴量,アーキテクチャ浄化手法を用いて学習するための,新しいコントラスト学習フレームワークである。
より具体的には、元のサンプル(シリーズ)の変換によって生じるより多くのノイズ付加を避けるために、変換は、それぞれ傾向のある部分と周期的な部分に適用される。
さらに,多変量系列の無関係変数から発する雑音を緩和するために,チャネル独立学習方式を導入する。
線形学習のバックボーンとグローバルなコントラスト損失関数を用いることで、周期性や傾向の冗長性や不均一性によるノイズ導入を防止する。
実験の結果, 下流TSFタスクにおけるCLeaRForecastの性能は良好であった。
関連論文リスト
- Multi-Patch Prediction: Adapting LLMs for Time Series Representation
Learning [22.28251586213348]
aLLM4TSは、時系列表現学習にLarge Language Models(LLM)を適用する革新的なフレームワークである。
われわれのフレームワークの特筆すべき要素はパッチワイドデコーディング層である。
論文 参考訳(メタデータ) (2024-02-07T13:51:26Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Explaining Time Series via Contrastive and Locally Sparse Perturbations [45.055327583283315]
ContraLSPは、非形式的摂動を構築するために反事実サンプルを導入するスパースモデルである。
合成と実世界の両方のデータセットに関する実証研究は、ContraLSPが最先端のモデルより優れていることを示している。
論文 参考訳(メタデータ) (2024-01-16T18:27:37Z) - U-Mixer: An Unet-Mixer Architecture with Stationarity Correction for
Time Series Forecasting [11.55346291812749]
時系列予測における非定常性は、深い層を通しての安定した特徴伝達を阻害し、特徴分布を妨害し、学習データ分布の変化を複雑化する。
異なるパッチとチャネル間の局所的な時間的依存関係を別々にキャプチャするU-Mixerを提案する。
U-Mixerは最先端(SOTA)法よりも14.5%,7.7%改善している。
論文 参考訳(メタデータ) (2024-01-04T12:41:40Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - State Sequences Prediction via Fourier Transform for Representation
Learning [111.82376793413746]
本研究では,表現表現を効率よく学習する新しい方法である,フーリエ変換(SPF)による状態列予測を提案する。
本研究では,状態系列における構造情報の存在を理論的に解析する。
実験により,提案手法はサンプル効率と性能の両面で,最先端のアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-24T14:47:02Z) - A novel decomposed-ensemble time series forecasting framework: capturing
underlying volatility information [6.590038231008498]
本稿では, 時系列予測のパラダイムを提案する。このパラダイムは, 分解と, 時系列の揺らぎ情報を取得する能力を統合するものである。
各サブモードの数値データとボラティリティ情報の両方を利用してニューラルネットワークを訓練する。
このネットワークはサブモデムの情報予測に長けており、全てのサブモデムの予測を集約して最終的な出力を生成する。
論文 参考訳(メタデータ) (2023-10-13T01:50:43Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - CoST: Contrastive Learning of Disentangled Seasonal-Trend
Representations for Time Series Forecasting [35.76867542099019]
我々はCoSTという新しい時系列表現学習フレームワークを提案する。
コントラスト学習法を用いて季節差表現を学習する。
実世界のデータセットの実験では、CoSTが最先端のメソッドを一貫して上回っていることが示されている。
論文 参考訳(メタデータ) (2022-02-03T13:17:38Z) - Interpretable Time-series Representation Learning With Multi-Level
Disentanglement [56.38489708031278]
Disentangle Time Series (DTS)は、シーケンシャルデータのための新しいDisentanglement Enhanceingフレームワークである。
DTSは時系列の解釈可能な表現として階層的意味概念を生成する。
DTSは、セマンティック概念の解釈性が高く、下流アプリケーションで優れたパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-17T22:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。