論文の概要: Time Series Prediction by Multi-task GPR with Spatiotemporal Information
Transformation
- arxiv url: http://arxiv.org/abs/2204.12085v1
- Date: Tue, 26 Apr 2022 05:51:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 21:26:23.185019
- Title: Time Series Prediction by Multi-task GPR with Spatiotemporal Information
Transformation
- Title(参考訳): 時空間情報変換を用いたマルチタスクGPRによる時系列予測
- Authors: Peng Tao, Xiaohu Hao, Jie Cheng and Luonan Chen
- Abstract要約: MTGPRMachineと呼ばれる新しい手法を開発し、短時間の時系列から正確な予測を行う。
具体的には、まず、高次元/空間情報から任意の対象変数の時間的/動的情報に変換するために、複数のリンクされたSTIマッピングである特定のマルチタスクGPRを構築する。
MTGPRMachineが他の既存手法より優れていることを明らかに検証した。
- 参考スコア(独自算出の注目度): 3.7144216461529216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Making an accurate prediction of an unknown system only from a short-term
time series is difficult due to the lack of sufficient information, especially
in a multi-step-ahead manner. However, a high-dimensional short-term time
series contains rich dynamical information, and also becomes increasingly
available in many fields. In this work, by exploiting spatiotemporal
information (STI) transformation scheme that transforms such
high-dimensional/spatial information to temporal information, we developed a
new method called MT-GPRMachine to achieve accurate prediction from a
short-term time series. Specifically, we first construct a specific multi-task
GPR which is multiple linked STI mappings to transform high dimensional/spatial
information into temporal/dynamical information of any given target variable,
and then makes multi step-ahead prediction of the target variable by solving
those STI mappings. The multi-step-ahead prediction results on various
synthetic and real-world datasets clearly validated that MT-GPRMachine
outperformed other existing approaches.
- Abstract(参考訳): 短時間の時系列のみから未知のシステムの正確な予測を行うことは、特に多段階的な方法で十分な情報がないため困難である。
しかし、高次元の短期時系列にはリッチな力学情報が含まれており、多くの分野で利用できるようになる。
本研究では,高次元/空間情報から時間情報へ変換する時空間情報(STI)変換方式を利用して,MT-GPRMachineと呼ばれる新しい手法を開発した。
具体的には、まず、複数のリンクされたSTIマッピングである特定のマルチタスクGPRを構築し、高次元/空間情報を任意の対象変数の時間的/動的情報に変換する。
MT-GPRMachineが他の既存手法よりも優れていたことを、様々な合成および実世界のデータセットで明らかに検証した。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Metadata Matters for Time Series: Informative Forecasting with Transformers [70.38241681764738]
時系列予測のためのMetaTST(Metadata-informed Time Series Transformer)を提案する。
メタデータの非構造化の性質に取り組むため、MetaTSTは、事前に設計されたテンプレートによってそれらを自然言語に形式化する。
Transformerエンコーダは、メタデータ情報によるシーケンス表現を拡張するシリーズトークンとメタデータトークンの通信に使用される。
論文 参考訳(メタデータ) (2024-10-04T11:37:55Z) - DRFormer: Multi-Scale Transformer Utilizing Diverse Receptive Fields for Long Time-Series Forecasting [3.420673126033772]
本稿では,動的スパース学習アルゴリズムを用いた動的トークン化手法を提案する。
提案するDRFormerは,実世界の様々なデータセットを用いて評価し,既存の手法と比較して,その優位性を示す実験結果を得た。
論文 参考訳(メタデータ) (2024-08-05T07:26:47Z) - TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables [75.83318701911274]
TimeXerは外部情報を取り込み、内因性変数の予測を強化する。
TimeXerは、12の現実世界の予測ベンチマークで一貫した最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-29T11:54:35Z) - Time-Aware Knowledge Representations of Dynamic Objects with
Multidimensional Persistence [41.32931849366751]
本稿では,暗黙的な時間依存トポロジ情報に着目した時間認識型知識表現機構を提案する。
特に,TMP(textitTemporal MultiPersistence)と呼ばれる新しい手法を提案する。
TMP法は、最先端のマルチパーシスタンスサマリーの計算効率を59.5倍に向上させる。
論文 参考訳(メタデータ) (2024-01-24T00:33:53Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Spatiotemporal-Linear: Towards Universal Multivariate Time Series
Forecasting [10.404951989266191]
本稿ではSTL(Spatio-Temporal-Linear)フレームワークを紹介する。
STLは、Linearベースのアーキテクチャを拡張するために、時間組込みと空間インフォームドのバイパスをシームレスに統合する。
実証的な証拠は、さまざまな観測時間と予測期間とデータセットにわたって、LinearとTransformerのベンチマークを上回り、STLの成果を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-12-22T17:46:34Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - Temporal Saliency Detection Towards Explainable Transformer-based
Timeseries Forecasting [3.046315755726937]
本稿では、注意機構を基盤として、マルチ水平時系列予測に適用する効果的なアプローチであるTSD(Temporal Saliency Detection)を提案する。
TSD手法は, 多重ヘッドを凝縮することにより, 多分解能パターンの多分解能解析を容易にし, 複雑な時系列データの予測を段階的に向上させる。
論文 参考訳(メタデータ) (2022-12-15T12:47:59Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。