論文の概要: Power Time Series Forecasting by Pretrained LM
- arxiv url: http://arxiv.org/abs/2302.11939v1
- Date: Thu, 23 Feb 2023 11:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 15:34:39.573496
- Title: Power Time Series Forecasting by Pretrained LM
- Title(参考訳): 予習lmによる電力時系列予測
- Authors: Tian Zhou, PeiSong Niu, Xue Wang, Liang Sun, Rong Jin
- Abstract要約: 本研究では,自然言語や画像データに基づいて事前学習したトランスフォーマーモデルの有効性を検討する。
このモデルは,Zero-Shot,Few-Shot,および通常のサンプルサイズ条件下での時系列予測タスクの微調整により評価される。
この結果から,自然言語や画像の事前学習は,モーダリティの時系列予測タスクにおいて,同等あるいは最先端のパフォーマンスをもたらす可能性が示唆された。
- 参考スコア(独自算出の注目度): 18.266365229988924
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The diversity and domain dependence of time series data pose significant
challenges in transferring learning to time series forecasting. In this study,
we examine the effectiveness of using a transformer model that has been
pre-trained on natural language or image data and then fine-tuned for time
series forecasting with minimal modifications, specifically, without altering
the self-attention and feedforward layers of the residual blocks. This model,
known as the Frozen Pretrained Transformer (FPT), is evaluated through
fine-tuning on time series forecasting tasks under Zero-Shot, Few-Shot, and
normal sample size conditions. Our results demonstrate that pre-training on
natural language or images can lead to a comparable or state-of-the-art
performance in cross-modality time series forecasting tasks, in contrast to
previous studies that focused on fine-tuning within the same modality as the
pre-training data. Additionally, we provide a comprehensive theoretical
analysis of the universality and the functionality of the FPT. The code is
publicly available at
https://anonymous.4open.science/r/Pretrained-LM-for-TSForcasting-C561.
- Abstract(参考訳): 時系列データの多様性とドメイン依存は、学習を時系列予測に移行する上で大きな課題となる。
本研究では,自然言語や画像データに基づいて事前学習したトランスモデルを用いて,残差ブロックの自己付着層やフィードフォワード層を変更することなく,最小限の修正で時系列予測を行う手法の有効性について検討する。
The Frozen Pretrained Transformer (FPT) として知られるこのモデルは、Zero-Shot、Few-Shot、および通常のサンプルサイズ条件下での時系列予測タスクの微調整によって評価される。
その結果, 自然言語や画像による事前学習は, 事前学習データと同程度の微調整に焦点をあてた従来の研究とは対照的に, 相互モダリティ時系列予測タスクにおいて, 同等あるいは最先端のパフォーマンスをもたらすことが示された。
さらに、FPTの普遍性と機能に関する包括的な理論的分析を提供する。
コードはhttps://anonymous.4open.science/r/Pretrained-LM-for-TSForcasting-C561で公開されている。
関連論文リスト
- LSEAttention is All You Need for Time Series Forecasting [0.0]
トランスフォーマーベースのアーキテクチャは自然言語処理とコンピュータビジョンにおいて顕著な成功を収めた。
変圧器モデルでよく見られるエントロピー崩壊とトレーニング不安定性に対処するアプローチである textbfLSEAttention を導入する。
論文 参考訳(メタデータ) (2024-10-31T09:09:39Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Toward a Foundation Model for Time Series Data [34.1973242428317]
基礎モデルは、大規模で多様なデータセットに基づいてトレーニングされた機械学習モデルである。
複数のドメインのラベルのないサンプルを活用することで,効率的な時系列基礎モデルを構築する。
論文 参考訳(メタデータ) (2023-10-05T21:44:50Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - Ripple: Concept-Based Interpretation for Raw Time Series Models in
Education [5.374524134699487]
時系列は、教育予測タスクにおいて最も一般的な入力データである。
本稿では,グラフニューラルネットワークを用いた不規則な多変量時系列モデリングを用いて,同等あるいはより良い精度を実現する手法を提案する。
教育領域におけるこれらの進歩を分析し,早期学生のパフォーマンス予測の課題に対処する。
論文 参考訳(メタデータ) (2022-12-02T12:26:00Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - Train No Evil: Selective Masking for Task-Guided Pre-Training [97.03615486457065]
一般的な事前学習と微調整の間を選択的にマスキングするタスク誘導事前学習段階を付加した3段階のフレームワークを提案する。
提案手法は,50%未満のコストで同等あるいはさらに優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-04-21T03:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。