論文の概要: $\mathtt{tsGT}$: Stochastic Time Series Modeling With Transformer
- arxiv url: http://arxiv.org/abs/2403.05713v1
- Date: Fri, 8 Mar 2024 22:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:38:58.674433
- Title: $\mathtt{tsGT}$: Stochastic Time Series Modeling With Transformer
- Title(参考訳): $\mathtt{tsGT}$: Transformerによる確率的時系列モデリング
- Authors: {\L}ukasz Kuci\'nski, Witold Drzewakowski, Mateusz Olko, Piotr
Kozakowski, {\L}ukasz Maziarka, Marta Emilia Nowakowska, {\L}ukasz Kaiser,
Piotr Mi{\l}o\'s
- Abstract要約: 汎用トランスアーキテクチャ上に構築された時系列モデルを提案する。
MathttsGT$はMADやRMSEの最先端モデルよりも優れており、QLやCRPSの仲間よりも優れています。
データ分布をモデル化し、限界量子値を予測する$mathttsGT$の能力を詳細に分析することで、これらの結果を補完する。
- 参考スコア(独自算出の注目度): 10.727028952959333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series methods are of fundamental importance in virtually any field of
science that deals with temporally structured data. Recently, there has been a
surge of deterministic transformer models with time series-specific
architectural biases. In this paper, we go in a different direction by
introducing $\mathtt{tsGT}$, a stochastic time series model built on a
general-purpose transformer architecture. We focus on using a well-known and
theoretically justified rolling window backtesting and evaluation protocol. We
show that $\mathtt{tsGT}$ outperforms the state-of-the-art models on MAD and
RMSE, and surpasses its stochastic peers on QL and CRPS, on four commonly used
datasets. We complement these results with a detailed analysis of
$\mathtt{tsGT}$'s ability to model the data distribution and predict marginal
quantile values.
- Abstract(参考訳): 時系列法は、時間的に構造化されたデータを扱う科学のあらゆる分野において、基本的な重要性である。
近年,時系列固有のアーキテクチャバイアスを持つ決定論的変圧器モデルが急増している。
本稿では,汎用トランスアーキテクチャ上に構築された確率的時系列モデルである$\mathtt{tsGT}$を導入することで,異なる方向に進む。
我々は、よく知られた理論上正当化されたロールウィンドウバックテストと評価プロトコルの使用に焦点をあてる。
我々は、MADとRMSEの最先端モデルよりも優れた$\mathtt{tsGT}$を示し、一般的な4つのデータセット上でQLとCRPSの確率的ピアを上回っている。
これらの結果を、データ分布をモデル化し、限界量子値を予測する$\mathtt{tsGT}$の詳細な分析で補完する。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [110.79681024473159]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Transformers for Time Series Analysis at Scale [87.9808714449511]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - The Bigger the Better? Rethinking the Effective Model Scale in Long-term
Time Series Forecasting [57.00348861248051]
時系列予測は時系列分析において重要なフロンティアである。
階層的な分解で拡張された軽量トランスフォーマーであるHDformerを紹介する。
HDformerは既存のLTSFモデルよりも優れており、パラメータは99%以上少ない。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Generative Modeling of Regular and Irregular Time Series Data via
Koopman VAEs [53.91784369229405]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
以上の結果から,KVAEは,合成および実世界の時系列生成ベンチマークにおいて,最先端のGAN法およびVAE法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - DuETT: Dual Event Time Transformer for Electronic Health Records [14.520791492631114]
我々はDuETTアーキテクチャを紹介した。これは、時間とイベントの両タイプにまたがるように設計されたトランスフォーマーの拡張である。
DuETTは集約された入力を使用し、スパース時系列は一定長さの正規シーケンスに変換される。
本モデルでは,MIMIC-IV と PhysioNet-2012 EHR データセットを用いて,複数の下流タスクにおける最先端のディープラーニングモデルより優れています。
論文 参考訳(メタデータ) (2023-04-25T17:47:48Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - GC-GRU-N for Traffic Prediction using Loop Detector Data [5.735035463793008]
シアトルのループ検出器のデータを15分以上収集し、その問題を時空で再現する。
モデルは、最速の推論時間と非常に近いパフォーマンスで第2位(トランスフォーマー)。
論文 参考訳(メタデータ) (2022-11-13T06:32:28Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z) - Deep Transformer Models for Time Series Forecasting: The Influenza
Prevalence Case [2.997238772148965]
時系列データは、多くの科学と工学の分野で広く使われている。
本稿では,トランスフォーマーに基づく機械学習モデルを用いた時系列予測の新しい手法を提案する。
提案手法により得られた予測結果は,最先端技術と良好に比較できることを示す。
論文 参考訳(メタデータ) (2020-01-23T00:22:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。