論文の概要: Prompt-Based Time Series Forecasting: A New Task and Dataset
- arxiv url: http://arxiv.org/abs/2210.08964v1
- Date: Tue, 20 Sep 2022 10:15:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 21:02:40.543388
- Title: Prompt-Based Time Series Forecasting: A New Task and Dataset
- Title(参考訳): Promptベースの時系列予測:新しいタスクとデータセット
- Authors: Hao Xue and Flora D.Salim
- Abstract要約: 既存手法では、予測モデルは数値列を入力とし、数値列を出力とする。
事前学習された言語基盤モデルの成功に触発されて,新しいプロンプトベースの時系列予測タスクを提案する。
予測タスクを文から文へのフレーム化することで,予測目的の言語モデルを直接適用することができる。
- 参考スコア(独自算出の注目度): 9.949781365631557
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The research of time series forecasting benefits a wide range of applications
from weather forecasting to human mobility or traffic prediction. This paper
studies the time series forecasting problem from a whole new perspective. In
the existing methods, the forecasting models take a sequence of numerical
values as input and yield numerical values as output. Inspired by the successes
of pre-trained language foundation models, we pose a question about whether
these models can also be adapted to time series forecasting tasks. Thus, we
propose a novel prompt-based time series forecasting (PromptCast) task. In this
task, the numerical input and output are transformed into language sentence
prompts. We frame the forecasting task in a sentence-to-sentence manner which
makes it possible to directly apply language models for the forecasting
purpose. To support and facilitate the research of this task, we also present a
large-scale dataset (PISA) that includes three real-world forecasting scenarios
in this paper. We evaluate different state-of-the-art numerical-based
forecasting methods and language generation models such as Bart and Bigbird.
The benchmark results demonstrate that the proposed prompt-based time series
forecasting with language generation models is a promising research direction.
In addition, in comparison to conventional numerical-based forecasting,
prompt-based forecasting shows a better generalization ability. We believe that
the proposed PromptCast benchmark task as well as our PISA dataset could
provide novel insights and further lead to new research directions in the time
series forecasting domain.
- Abstract(参考訳): 時系列予測の研究は、天気予報から人の移動や交通予測まで、幅広い応用に効果がある。
本稿では,時系列予測問題を全く新しい視点から考察する。
既存の手法では、予測モデルは入力として数値の列を取り、出力として数値を産出する。
事前学習された言語基盤モデルの成功に触発されて、これらのモデルが時系列予測タスクにも適用できるかどうかを疑問視する。
そこで我々は,新しいプロンプトベースの時系列予測(PromptCast)タスクを提案する。
このタスクでは、数値入力と出力は言語文プロンプトに変換される。
予測タスクを文から文へのフレーム化することで,予測目的の言語モデルを直接適用することができる。
本研究を支援するために,本論文では,3つの実世界の予測シナリオを含む大規模データセット(PISA)も提示する。
我々は,bart や bigbird などの言語生成モデルを用いて,最先端の数値予測手法の評価を行った。
ベンチマークの結果,言語生成モデルを用いたプロンプトに基づく時系列予測が有望な研究方向であることが示された。
また,従来の数値ベース予測と比較して,プロンプトベース予測の方が一般化能力が高い。
我々は,提案した PromptCast ベンチマークタスクと PISA データセットが新たな洞察を与え,時系列予測領域における新たな研究方向を導出できると考えている。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Metadata Matters for Time Series: Informative Forecasting with Transformers [70.38241681764738]
時系列予測のためのMetaTST(Metadata-informed Time Series Transformer)を提案する。
メタデータの非構造化の性質に取り組むため、MetaTSTは、事前に設計されたテンプレートによってそれらを自然言語に形式化する。
Transformerエンコーダは、メタデータ情報によるシーケンス表現を拡張するシリーズトークンとメタデータトークンの通信に使用される。
論文 参考訳(メタデータ) (2024-10-04T11:37:55Z) - From News to Forecast: Integrating Event Analysis in LLM-Based Time Series Forecasting with Reflection [16.47323362700347]
本稿では,テキストデータと時系列データの両方を解析することで時系列予測を強化する新しい手法を提案する。
言語を媒体として,社会イベントを予測モデルに適応的に統合し,ニュースコンテンツと時系列のゆらぎを一致させてより豊かな洞察を提供する。
具体的には、LSMをベースとしたエージェントを用いて、無関係なニュースを反復的にフィルタリングし、人間ライクな推論を用いて予測を評価する。
論文 参考訳(メタデータ) (2024-09-26T03:50:22Z) - Prompt Mining for Language-based Human Mobility Forecasting [10.325794804095889]
本稿では,言語に基づくモビリティ予測における迅速なマイニングのための新しいフレームワークを提案する。
本発明のフレームワークは、プロンプトの情報エントロピーに基づく即時生成段階と、思考の連鎖などのメカニズムを統合する即時改善段階とを含む。
論文 参考訳(メタデータ) (2024-03-06T08:43:30Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - A decoder-only foundation model for time-series forecasting [23.824504640087753]
我々のモデルは,大規模時系列コーパス上でパッチ付きデコーダスタイルのアテンションモデルを事前学習することに基づいている。
予測履歴の長さ、予測長、時間的粒度の異なる範囲でうまく機能する。
論文 参考訳(メタデータ) (2023-10-14T17:01:37Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Leveraging Language Foundation Models for Human Mobility Forecasting [8.422257363944295]
時相パターンマイニングに言語基盤モデルを活用する新しいパイプラインを提案する。
我々は、あらゆる種類の情報を含む自然言語入力を直接予測タスクを実行する。
数値時間列を文に変換するために特定のプロンプトを導入し、既存の言語モデルを直接適用できるようにしている。
論文 参考訳(メタデータ) (2022-09-11T01:15:16Z) - Forecast with Forecasts: Diversity Matters [9.66075743192747]
近年,時系列特徴を用いた予測組み合わせモデルの構築が,予測領域で盛んに行われている。
本研究では,歴史的データから生成した予測へ焦点を移して特徴を抽出することを提案する。
本稿では,対応する予測に基づいてモデルプールの多様性を決定的特徴として計算し,メタラーニングを用いて多様性に基づく予測組み合わせモデルを構築する。
論文 参考訳(メタデータ) (2020-12-03T02:14:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。