論文の概要: CATS: Enhancing Multivariate Time Series Forecasting by Constructing
Auxiliary Time Series as Exogenous Variables
- arxiv url: http://arxiv.org/abs/2403.01673v1
- Date: Mon, 4 Mar 2024 01:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 20:15:00.491918
- Title: CATS: Enhancing Multivariate Time Series Forecasting by Constructing
Auxiliary Time Series as Exogenous Variables
- Title(参考訳): CATS: 外部変数としての補助時系列の構成による多変量時系列予測の強化
- Authors: Jiecheng Lu, Xu Han, Yan Sun, Shihao Yang
- Abstract要約: 本稿では,2次元時間・コンテキストアテンション機構のように機能する補助時間系列(CATS)を構築する手法を提案する。
基本2層をコア予測器として用いながら、CATSは最先端を達成し、従来の多変量モデルと比較して複雑性とパラメータを著しく低減する。
- 参考スコア(独自算出の注目度): 9.95711569148527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For Multivariate Time Series Forecasting (MTSF), recent deep learning
applications show that univariate models frequently outperform multivariate
ones. To address the difficiency in multivariate models, we introduce a method
to Construct Auxiliary Time Series (CATS) that functions like a 2D
temporal-contextual attention mechanism, which generates Auxiliary Time Series
(ATS) from Original Time Series (OTS) to effectively represent and incorporate
inter-series relationships for forecasting. Key principles of ATS - continuity,
sparsity, and variability - are identified and implemented through different
modules. Even with a basic 2-layer MLP as core predictor, CATS achieves
state-of-the-art, significantly reducing complexity and parameters compared to
previous multivariate models, marking it an efficient and transferable MTSF
solution.
- Abstract(参考訳): MTSF(Multivarate Time Series Forecasting)では、最近のディープラーニングアプリケーションは、単変量モデルが多変量モデルよりも頻繁に優れていることを示している。
多変量モデルにおける差分性に対処するため,2次元時間・コンテキストアテンション機構のような機能を持つ補助時間系列(CATS)を構築する手法を導入し,予測のための系列間関係を効果的に表現し,組み込む。
ATSの主な原則 – 連続性、疎性、可変性 – は、異なるモジュールを通じて識別され、実装されます。
基本2層MLPをコア予測器として用いながら、CATSは最先端を実現し、従来の多変量モデルと比較して複雑性とパラメータを著しく低減し、効率的なMTSFソリューションであることを示す。
関連論文リスト
- Considering Nonstationary within Multivariate Time Series with
Variational Hierarchical Transformer for Forecasting [12.793705636683402]
MTS内の非定常性と固有特性を考慮した強力な階層的確率的生成モジュールを開発した。
次に、階層時間系列変分変換器(HTV-Trans)という、明確に定義された変動生成動的モデルに対する変換器と組み合わせる。
HTV-Transは強力な確率モデルであり、MTSの表現表現を学習し、予測タスクに適用する。
論文 参考訳(メタデータ) (2024-03-08T16:04:36Z) - The Bigger the Better? Rethinking the Effective Model Scale in Long-term
Time Series Forecasting [57.00348861248051]
時系列予測は時系列分析において重要なフロンティアである。
階層的な分解で拡張された軽量トランスフォーマーであるHDformerを紹介する。
HDformerは既存のLTSFモデルよりも優れており、パラメータは99%以上少ない。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - ARM: Refining Multivariate Forecasting with Adaptive Temporal-Contextual
Learning [8.680653542513392]
ARMは多変量時間文脈適応学習法である。
個々の時系列パターンを処理し、シリーズ間の依存関係を正しく学習する。
ARMは計算コストを大幅に増加させることなく、複数のベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-10-14T04:37:38Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate
Time Series [59.97020360721152]
パウラ理論に基づいて,最近導入された注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - Gait Recognition in the Wild with Multi-hop Temporal Switch [81.35245014397759]
野生での歩行認識は、より実践的な問題であり、マルチメディアとコンピュータビジョンのコミュニティの注目を集めています。
本稿では,現実のシーンにおける歩行パターンの効果的な時間的モデリングを実現するために,新しいマルチホップ時間スイッチ方式を提案する。
論文 参考訳(メタデータ) (2022-09-01T10:46:09Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Deep Explicit Duration Switching Models for Time Series [84.33678003781908]
状態依存型と時間依存型の両方のスイッチングダイナミクスを識別できるフレキシブルモデルを提案する。
状態依存スイッチングは、リカレントな状態-スイッチ接続によって実現される。
時間依存スイッチング動作を改善するために、明示的な期間カウント変数が使用される。
論文 参考訳(メタデータ) (2021-10-26T17:35:21Z) - Temporal Tensor Transformation Network for Multivariate Time Series
Prediction [1.2354076490479515]
本稿では,時間変換ネットワーク(Temporal Transformation Network)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
これにより、元の多変量時系列の新しい表現が得られ、畳み込みカーネルは、比較的大きな時間領域からの可変相互作用信号だけでなく、複雑で非線形な特徴を抽出することができる。
実験結果から、時間変換ネットワークは、様々なタスクにわたるウィンドウベースの予測において、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-01-04T07:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。