論文の概要: CoST: Contrastive Learning of Disentangled Seasonal-Trend
Representations for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2202.01575v1
- Date: Thu, 3 Feb 2022 13:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 19:05:17.797749
- Title: CoST: Contrastive Learning of Disentangled Seasonal-Trend
Representations for Time Series Forecasting
- Title(参考訳): CoST:時系列予測のための季節変動表現のコントラスト学習
- Authors: Gerald Woo, Chenghao Liu, Doyen Sahoo, Akshat Kumar, Steven Hoi
- Abstract要約: 我々はCoSTという新しい時系列表現学習フレームワークを提案する。
コントラスト学習法を用いて季節差表現を学習する。
実世界のデータセットの実験では、CoSTが最先端のメソッドを一貫して上回っていることが示されている。
- 参考スコア(独自算出の注目度): 35.76867542099019
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has been actively studied for time series forecasting, and the
mainstream paradigm is based on the end-to-end training of neural network
architectures, ranging from classical LSTM/RNNs to more recent TCNs and
Transformers. Motivated by the recent success of representation learning in
computer vision and natural language processing, we argue that a more promising
paradigm for time series forecasting, is to first learn disentangled feature
representations, followed by a simple regression fine-tuning step -- we justify
such a paradigm from a causal perspective. Following this principle, we propose
a new time series representation learning framework for time series forecasting
named CoST, which applies contrastive learning methods to learn disentangled
seasonal-trend representations. CoST comprises both time domain and frequency
domain contrastive losses to learn discriminative trend and seasonal
representations, respectively. Extensive experiments on real-world datasets
show that CoST consistently outperforms the state-of-the-art methods by a
considerable margin, achieving a 21.3\% improvement in MSE on multivariate
benchmarks. It is also robust to various choices of backbone encoders, as well
as downstream regressors.
- Abstract(参考訳): ディープラーニングは時系列予測のために活発に研究されており、主流のパラダイムは、古典的なLSTM/RNNから、最近のTCNやTransformersまで、ニューラルネットワークアーキテクチャのエンドツーエンドトレーニングに基づいている。
コンピュータビジョンと自然言語処理における表現学習の最近の成功に動機づけられ、時系列予測のより有望なパラダイムは、まず不連続な特徴表現を学習し、その後に簡単な回帰微調整ステップを踏むことであると論じている。
そこで本研究では,時系列予測のための新しい時系列表現学習フレームワークである「コスト」を提案する。
CoSTは、それぞれ時間領域と周波数領域の対比損失からなり、識別傾向と季節表現を学習する。
実世界のデータセットに対する大規模な実験により、CoSTは最先端の手法をかなりのマージンで一貫して上回り、多変量ベンチマークでMSEを21.3倍改善した。
また、バックボーンエンコーダや下流回帰器の様々な選択肢に対して堅牢である。
関連論文リスト
- PDETime: Rethinking Long-Term Multivariate Time Series Forecasting from
the perspective of partial differential equations [49.80959046861793]
本稿では,ニューラルPDEソルバの原理に着想を得た新しいLMTFモデルであるPDETimeを提案する。
7つの異なる時間的実世界のLMTFデータセットを用いた実験により、PDETimeがデータ固有の性質に効果的に適応できることが判明した。
論文 参考訳(メタデータ) (2024-02-25T17:39:44Z) - Multi-Patch Prediction: Adapting LLMs for Time Series Representation
Learning [22.28251586213348]
aLLM4TSは、時系列表現学習にLarge Language Models(LLM)を適用する革新的なフレームワークである。
われわれのフレームワークの特筆すべき要素はパッチワイドデコーディング層である。
論文 参考訳(メタデータ) (2024-02-07T13:51:26Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Distillation Enhanced Time Series Forecasting Network with Momentum Contrastive Learning [7.4106801792345705]
長周期時系列予測のための革新的蒸留強化フレームワークであるDE-TSMCLを提案する。
具体的には、タイムスタンプをマスクするかどうかを適応的に学習する学習可能なデータ拡張機構を設計する。
そこで本研究では,時系列のサンプル間および時間内相関を探索するために,モーメントを更新したコントラスト学習タスクを提案する。
複数のタスクからモデル損失を発生させることで、下流予測タスクの効果的な表現を学習することができる。
論文 参考訳(メタデータ) (2024-01-31T12:52:10Z) - CLeaRForecast: Contrastive Learning of High-Purity Representations for
Time Series Forecasting [2.5816901096123863]
時系列予測(TSF)は現代社会において重要であり、多くの領域にまたがっている。
従来の表現学習に基づくTSFアルゴリズムは、典型的には、分離された傾向周期表現を特徴とする対照的な学習パラダイムを取り入れている。
CLeaRForecastは,高純度時系列表現をサンプル,特徴量,アーキテクチャ浄化手法を用いて学習するための,新しいコントラスト学習フレームワークである。
論文 参考訳(メタデータ) (2023-12-10T04:37:43Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - MPR-Net:Multi-Scale Pattern Reproduction Guided Universality Time Series
Interpretable Forecasting [13.790498420659636]
時系列予測は、その広範な応用が本質的に困難なため、既存の研究から幅広い関心を集めている。
本稿では,まず,畳み込み操作を用いてマルチスケールの時系列パターンを適応的に分解し,パターン再現の既知に基づいてパターン拡張予測手法を構築し,最終的に畳み込み操作を用いて将来的なパターンを再構築する。
時系列に存在する時間的依存関係を活用することで、MPR-Netは線形時間複雑性を達成するだけでなく、予測プロセスも解釈できる。
論文 参考訳(メタデータ) (2023-07-13T13:16:01Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Two Steps Forward and One Behind: Rethinking Time Series Forecasting
with Deep Learning [7.967995669387532]
Transformerは、人工知能ニューラルネットワークの世界に革命をもたらした、非常に成功したディープラーニングモデルである。
時系列予測領域に適用したトランスフォーマーモデルの有効性について検討する。
性能が良く、より複雑でない代替モデル一式を提案する。
論文 参考訳(メタデータ) (2023-04-10T12:47:42Z) - Interpretable Time-series Representation Learning With Multi-Level
Disentanglement [56.38489708031278]
Disentangle Time Series (DTS)は、シーケンシャルデータのための新しいDisentanglement Enhanceingフレームワークである。
DTSは時系列の解釈可能な表現として階層的意味概念を生成する。
DTSは、セマンティック概念の解釈性が高く、下流アプリケーションで優れたパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-17T22:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。