論文の概要: ElasTST: Towards Robust Varied-Horizon Forecasting with Elastic Time-Series Transformer
- arxiv url: http://arxiv.org/abs/2411.01842v1
- Date: Mon, 04 Nov 2024 06:28:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:44:00.235278
- Title: ElasTST: Towards Robust Varied-Horizon Forecasting with Elastic Time-Series Transformer
- Title(参考訳): ElasTST:Elastic Time-Series Transformerを用いたロバストなVaried-Horizon Forecastingを目指して
- Authors: Jiawen Zhang, Shun Zheng, Xumeng Wen, Xiaofang Zhou, Jiang Bian, Jia Li,
- Abstract要約: 本稿では弾性時間列変換器(ElasTST)の設計と評価を通してギャップを埋める。
ElasTSTモデルは、プレースホルダーと構造化された自己注意マスクを備えた非自己回帰設計を取り入れている。
回転位置埋め込みの調整可能なバージョンもElasTSTに統合され、時系列固有の周期をキャプチャする。
- 参考スコア(独自算出の注目度): 30.153064524015935
- License:
- Abstract: Numerous industrial sectors necessitate models capable of providing robust forecasts across various horizons. Despite the recent strides in crafting specific architectures for time-series forecasting and developing pre-trained universal models, a comprehensive examination of their capability in accommodating varied-horizon forecasting during inference is still lacking. This paper bridges this gap through the design and evaluation of the Elastic Time-Series Transformer (ElasTST). The ElasTST model incorporates a non-autoregressive design with placeholders and structured self-attention masks, warranting future outputs that are invariant to adjustments in inference horizons. A tunable version of rotary position embedding is also integrated into ElasTST to capture time-series-specific periods and enhance adaptability to different horizons. Additionally, ElasTST employs a multi-scale patch design, effectively integrating both fine-grained and coarse-grained information. During the training phase, ElasTST uses a horizon reweighting strategy that approximates the effect of random sampling across multiple horizons with a single fixed horizon setting. Through comprehensive experiments and comparisons with state-of-the-art time-series architectures and contemporary foundation models, we demonstrate the efficacy of ElasTST's unique design elements. Our findings position ElasTST as a robust solution for the practical necessity of varied-horizon forecasting.
- Abstract(参考訳): 多くの産業部門は、様々な地平線にわたって堅牢な予測を提供するモデルを必要としている。
近年、時系列予測や訓練済みユニバーサルモデル開発のための特定のアーキテクチャの構築が進んでいるが、推論中に様々な水平予測を調節する能力の総合的な検証はいまだに不十分である。
本稿では,弾性時間系列変換器(ElasTST)の設計と評価を通じて,このギャップを埋める。
ElasTSTモデルは、プレースホルダーと構造化された自己注意マスクを備えた非自己回帰設計を取り入れており、推論水平線の調整に不変な将来の出力を保証している。
回転位置埋め込みの調整可能なバージョンもElasTSTに統合され、時系列固有の周期をキャプチャし、異なる水平線への適応性を高める。
さらに、ElasTSTはマルチスケールのパッチ設計を採用しており、きめ細かい情報と粗い情報の両方を効果的に統合している。
トレーニングフェーズの間、ElasTSTは複数の水平線をまたいだランダムサンプリングの効果を1つの固定された水平線設定で近似する水平線再重み付け戦略を使用する。
現状の時系列アーキテクチャと現代基礎モデルとの総合的な実験と比較を通じて、ElasTSTのユニークなデザイン要素の有効性を実証する。
われわれはElasTSTを,多様な水平予測の実用的必要性に対する堅牢な解決法として位置づけた。
関連論文リスト
- FlexTSF: A Universal Forecasting Model for Time Series with Variable Regularities [17.164913785452367]
我々は,より優れた一般化を持ち,正規時間と不規則時間の両方をサポートする普遍時系列予測モデルFlexTSFを提案する。
12のデータセットの実験では、FlexTSFは、それぞれ通常の時系列と不規則時系列のために設計された最先端の予測モデルより優れていることが示されている。
論文 参考訳(メタデータ) (2024-10-30T16:14:09Z) - Learning Pattern-Specific Experts for Time Series Forecasting Under Patch-level Distribution Shift [30.581736814767606]
時系列予測は、過去のデータに基づいて将来の価値を予測することを目的としている。
実世界の時間はしばしば、季節、動作条件、意味的な意味など、セグメントごとに異なるパターンを持つ複雑な非一様分布を示す。
本稿では,より正確で適応可能な時系列予測のために,パターン特化の専門家を活用した新しいアーキテクチャbftextSを提案する。
論文 参考訳(メタデータ) (2024-10-13T13:35:29Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Understanding Different Design Choices in Training Large Time Series Models [71.20102277299445]
不均一な時系列データに基づく大規模時系列モデル(LTSMs)のトレーニングには,ユニークな課題が伴う。
本稿では,時系列データに合わせた新しい統計プロンプトである,時系列プロンプトを提案する。
textttLTSM-bundleを導入します。
論文 参考訳(メタデータ) (2024-06-20T07:09:19Z) - Attractor Memory for Long-Term Time Series Forecasting: A Chaos Perspective [63.60312929416228]
textbftextitAttraosはカオス理論を長期時系列予測に取り入れている。
本研究では,AttraosがPatchTSTと比較して,パラメータの12分の1しか持たない主流データセットやカオスデータセットにおいて,LTSF法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-18T05:35:01Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - ETSformer: Exponential Smoothing Transformers for Time-series
Forecasting [35.76867542099019]
時系列予測のための変換器の改良に指数的スムース化の原理を利用する新しい時系列変換器アーキテクチャであるETSFormerを提案する。
特に,時系列予測における古典的指数的スムージング手法に着想を得て,バニラ変圧器の自己保持機構を置き換えるために,新しい指数的スムージングアテンション(ESA)と周波数アテンション(FA)を提案する。
論文 参考訳(メタデータ) (2022-02-03T02:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。