論文の概要: SageFormer: Series-Aware Graph-Enhanced Transformers for Multivariate
Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2307.01616v1
- Date: Tue, 4 Jul 2023 10:08:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 17:28:14.612762
- Title: SageFormer: Series-Aware Graph-Enhanced Transformers for Multivariate
Time Series Forecasting
- Title(参考訳): SageFormer: 多変量時系列予測のためのグラフ強化変換器
- Authors: Zhenwei Zhang, Xin Wang, Yuantao Gu
- Abstract要約: 本稿では,SageFormerについて紹介する。
グラフ構造を用いて、シリーズ間の依存関係を効果的にキャプチャし、モデル化するように設計されている。
SageFormerは従来の最先端のアプローチに比べて優れた性能を示します。
- 参考スコア(独自算出の注目度): 27.447661973763818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariate time series forecasting plays a critical role in diverse
domains. While recent advancements in deep learning methods, especially
Transformers, have shown promise, there remains a gap in addressing the
significance of inter-series dependencies. This paper introduces SageFormer, a
Series-aware Graph-enhanced Transformer model designed to effectively capture
and model dependencies between series using graph structures. SageFormer
tackles two key challenges: effectively representing diverse temporal patterns
across series and mitigating redundant information among series. Importantly,
the proposed series-aware framework seamlessly integrates with existing
Transformer-based models, augmenting their ability to model inter-series
dependencies. Through extensive experiments on real-world and synthetic
datasets, we showcase the superior performance of SageFormer compared to
previous state-of-the-art approaches.
- Abstract(参考訳): 多変量時系列予測は多様な領域において重要な役割を果たす。
近年のディープラーニング手法,特にトランスフォーマーの進歩は,将来性を示しているが,シリーズ間の依存関係の重要性に対処する上ではまだギャップが残っている。
本稿では,グラフ構造を用いて時系列間の依存関係を効果的にキャプチャし,モデル化するシリーズ対応グラフ拡張トランスフォーマーモデルであるSageFormerを紹介する。
sageformerは、2つの重要な課題に取り組んでいる。 シリーズ間で多様な時間パターンを効果的に表現し、シリーズ間で冗長な情報を緩和する。
重要なのは、提案されたシリーズアウェアフレームワークが既存のトランスフォーマーベースのモデルとシームレスに統合され、シリーズ間の依存関係をモデル化する能力が強化されることだ。
実世界および合成データセットに関する広範な実験を通じて、従来の最先端のアプローチと比較して、sageformerの優れたパフォーマンスを示す。
関連論文リスト
- Timer: Transformers for Time Series Analysis at Scale [87.9808714449511]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - The Bigger the Better? Rethinking the Effective Model Scale in Long-term
Time Series Forecasting [57.00348861248051]
時系列予測は時系列分析において重要なフロンティアである。
階層的な分解で拡張された軽量トランスフォーマーであるHDformerを紹介する。
HDformerは既存のLTSFモデルよりも優れており、パラメータは99%以上少ない。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Feature Programming for Multivariate Time Series Prediction [7.0220697993232]
本稿では,時系列モデリングのためのプログラム可能な機能工学の概念を紹介する。
本稿では,ノイズの多い時系列に対して大量の予測機能を生成する機能プログラミングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-09T20:46:55Z) - Two Steps Forward and One Behind: Rethinking Time Series Forecasting
with Deep Learning [7.967995669387532]
Transformerは、人工知能ニューラルネットワークの世界に革命をもたらした、非常に成功したディープラーニングモデルである。
時系列予測領域に適用したトランスフォーマーモデルの有効性について検討する。
性能が良く、より複雑でない代替モデル一式を提案する。
論文 参考訳(メタデータ) (2023-04-10T12:47:42Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - Expressing Multivariate Time Series as Graphs with Time Series Attention
Transformer [14.172091921813065]
多変量時系列表現学習のための時系列注意変換器(TSAT)を提案する。
TSATを用いて、エッジ強化された動的グラフの観点から、時系列の時間情報と相互依存の両方を表現している。
TSATは、様々な予測地平線において、最先端の6つのベースライン法より明らかに優れていることを示す。
論文 参考訳(メタデータ) (2022-08-19T12:25:56Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Instance-wise Graph-based Framework for Multivariate Time Series
Forecasting [69.38716332931986]
我々は,異なる時刻スタンプにおける変数の相互依存性を利用するための,シンプルで効率的なインスタンス単位のグラフベースのフレームワークを提案する。
私たちのフレームワークのキーとなる考え方は、異なる変数の履歴時系列から予測すべき現在の時系列に情報を集約することです。
論文 参考訳(メタデータ) (2021-09-14T07:38:35Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。