論文の概要: ARM: Refining Multivariate Forecasting with Adaptive Temporal-Contextual
Learning
- arxiv url: http://arxiv.org/abs/2310.09488v1
- Date: Sat, 14 Oct 2023 04:37:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 20:13:09.079070
- Title: ARM: Refining Multivariate Forecasting with Adaptive Temporal-Contextual
Learning
- Title(参考訳): arm:適応型時空間学習による多変量予測
- Authors: Jiecheng Lu, Xu Han, Shihao Yang
- Abstract要約: ARMは多変量時間文脈適応学習法である。
個々の時系列パターンを処理し、シリーズ間の依存関係を正しく学習する。
ARMは計算コストを大幅に増加させることなく、複数のベンチマークで優れたパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 8.680653542513392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-term time series forecasting (LTSF) is important for various domains but
is confronted by challenges in handling the complex temporal-contextual
relationships. As multivariate input models underperforming some recent
univariate counterparts, we posit that the issue lies in the inefficiency of
existing multivariate LTSF Transformers to model series-wise relationships: the
characteristic differences between series are often captured incorrectly. To
address this, we introduce ARM: a multivariate temporal-contextual adaptive
learning method, which is an enhanced architecture specifically designed for
multivariate LTSF modelling. ARM employs Adaptive Univariate Effect Learning
(AUEL), Random Dropping (RD) training strategy, and Multi-kernel Local
Smoothing (MKLS), to better handle individual series temporal patterns and
correctly learn inter-series dependencies. ARM demonstrates superior
performance on multiple benchmarks without significantly increasing
computational costs compared to vanilla Transformer, thereby advancing the
state-of-the-art in LTSF. ARM is also generally applicable to other LTSF
architecture beyond vanilla Transformer.
- Abstract(参考訳): 長期時系列予測(LTSF)は、様々な領域において重要であるが、複雑な時間的・文脈的関係を扱う際の課題に直面している。
多変量入力モデルが最近の一変量入力モデルよりも優れているため、この問題は既存の多変量LTSF変換器が直列関係をモデル化する非効率性にあると仮定する。
そこで本研究では,多変量 ltsf モデリング専用に設計された拡張アーキテクチャである多変量時空間適応学習法 arm を提案する。
ARMはAUEL(Adaptive Univariate Effect Learning)、RD(Random Dropping)のトレーニング戦略、MKLS(Multi-kernel Local Smoothing)を採用し、個々の時系列の時間パターンをよりよく扱い、シリーズ間の依存関係を正しく学習する。
ARMは、バニラトランスフォーマーに比べて計算コストを大幅に増大させることなく、複数のベンチマークで優れた性能を示し、LTSFの最先端を推し進める。
ARMは一般に、バニラトランスフォーマー以外のLTSFアーキテクチャにも適用できる。
関連論文リスト
- LSEAttention is All You Need for Time Series Forecasting [0.0]
トランスフォーマーベースのアーキテクチャは自然言語処理とコンピュータビジョンにおいて顕著な成功を収めた。
変圧器モデルでよく見られるエントロピー崩壊とトレーニング不安定性に対処するアプローチである textbfLSEAttention を導入する。
論文 参考訳(メタデータ) (2024-10-31T09:09:39Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - xLSTMTime : Long-term Time Series Forecasting With xLSTM [0.0]
本稿では、時系列予測のための拡張LSTM (xLSTM) と呼ばれる最近のアーキテクチャの適応について述べる。
我々は、xLSTMTimeの性能を、複数の実世界のda-tasetにまたがる様々な最先端モデルと比較する。
この結果から,改良されたリカレントアーキテクチャは時系列予測において,トランスフォーマーモデルに代わる競合的な代替手段を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-14T15:15:00Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Adaptive Multi-Scale Decomposition Framework for Time Series Forecasting [26.141054975797868]
時系列予測(TSF)のための新しい適応型マルチスケール分解(AMD)フレームワークを提案する。
我々のフレームワークは時系列を複数のスケールで異なる時間パターンに分解し、MDM(Multi-Scale Decomposable Mixing)ブロックを活用する。
提案手法は,時間依存性とチャネル依存性の両方を効果的にモデル化し,マルチスケールデータ統合を改良するために自己相関を利用する。
論文 参考訳(メタデータ) (2024-06-06T05:27:33Z) - CATS: Enhancing Multivariate Time Series Forecasting by Constructing
Auxiliary Time Series as Exogenous Variables [9.95711569148527]
本稿では,2次元時間・コンテキストアテンション機構のように機能する補助時間系列(CATS)を構築する手法を提案する。
基本2層をコア予測器として用いながら、CATSは最先端を達成し、従来の多変量モデルと比較して複雑性とパラメータを著しく低減する。
論文 参考訳(メタデータ) (2024-03-04T01:52:40Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - A K-variate Time Series Is Worth K Words: Evolution of the Vanilla
Transformer Architecture for Long-term Multivariate Time Series Forecasting [52.33042819442005]
トランスフォーマーはMTSFのデファクトソリューションとなっている。
本研究では,MTSFトランスフォーマーアーキテクチャにおける現在のトークン化戦略がトランスフォーマーのトークン帰納バイアスを無視していることを指摘した。
バニラMTSF変圧器の基本構造について一連の進化を行った。
驚いたことに、進化した単純変圧器アーキテクチャは非常に効果的であり、バニラMTSF変圧器の過密現象を回避することに成功している。
論文 参考訳(メタデータ) (2022-12-06T07:00:31Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Temporal Tensor Transformation Network for Multivariate Time Series
Prediction [1.2354076490479515]
本稿では,時間変換ネットワーク(Temporal Transformation Network)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
これにより、元の多変量時系列の新しい表現が得られ、畳み込みカーネルは、比較的大きな時間領域からの可変相互作用信号だけでなく、複雑で非線形な特徴を抽出することができる。
実験結果から、時間変換ネットワークは、様々なタスクにわたるウィンドウベースの予測において、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-01-04T07:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。