論文の概要: Empowering Time Series Analysis with Large Language Models: A Survey
- arxiv url: http://arxiv.org/abs/2402.03182v1
- Date: Mon, 5 Feb 2024 16:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 14:58:00.486245
- Title: Empowering Time Series Analysis with Large Language Models: A Survey
- Title(参考訳): 大規模言語モデルによる時系列分析の権限付与:調査
- Authors: Yushan Jiang, Zijie Pan, Xikun Zhang, Sahil Garg, Anderson Schneider,
Yuriy Nevmyvaka, Dongjin Song
- Abstract要約: 本稿では,大規模言語モデルを用いた時系列解析手法の体系的概要について述べる。
具体的には、まず、時系列の文脈で言語モデルを適用する際の課題とモチベーションについて述べる。
次に、既存のメソッドを異なるグループ(ダイレクトクエリ、トークン化、プロンプトデザイン、ファインチューン、モデル統合)に分類し、各グループにおける主要なアイデアを強調します。
- 参考スコア(独自算出の注目度): 24.202539098675953
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, remarkable progress has been made over large language models
(LLMs), demonstrating their unprecedented capability in varieties of natural
language tasks. However, completely training a large general-purpose model from
the scratch is challenging for time series analysis, due to the large volumes
and varieties of time series data, as well as the non-stationarity that leads
to concept drift impeding continuous model adaptation and re-training. Recent
advances have shown that pre-trained LLMs can be exploited to capture complex
dependencies in time series data and facilitate various applications. In this
survey, we provide a systematic overview of existing methods that leverage LLMs
for time series analysis. Specifically, we first state the challenges and
motivations of applying language models in the context of time series as well
as brief preliminaries of LLMs. Next, we summarize the general pipeline for
LLM-based time series analysis, categorize existing methods into different
groups (i.e., direct query, tokenization, prompt design, fine-tune, and model
integration), and highlight the key ideas within each group. We also discuss
the applications of LLMs for both general and spatial-temporal time series
data, tailored to specific domains. Finally, we thoroughly discuss future
research opportunities to empower time series analysis with LLMs.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) に対して顕著な進歩が見られ,様々な自然言語タスクにおいて前例のない能力を示した。
しかし,大規模な汎用モデルをゼロから完全に訓練することは,時系列データの量や多種多様さから時系列解析において困難であり,連続モデル適応と再学習を阻害する概念的ドリフトにつながる非定常性も問題である。
近年の進歩により、事前学習されたLLMは時系列データの複雑な依存関係を捕捉し、様々なアプリケーションを容易にすることが示されている。
本稿では,LLMを時系列解析に利用する既存手法の体系的概要について述べる。
具体的には、まず、時系列の文脈で言語モデルを適用することの課題と動機、およびllmの簡単な予備条件について述べる。
次に、LCMに基づく時系列解析の一般的なパイプラインを要約し、既存のメソッドを異なるグループ(ダイレクトクエリ、トークン化、プロンプトデザイン、ファインチューン、モデル統合など)に分類し、各グループにおける主要なアイデアを強調する。
また,LLMの一般時間・時空間時系列データへの適用についても検討した。
最後に,LLMを用いた時系列解析の強化に向けた今後の研究の機会について論じる。
関連論文リスト
- Taming Pre-trained LLMs for Generalised Time Series Forecasting via
Cross-modal Knowledge Distillation [62.46869075841118]
我々はLLaTAと呼ばれる新しい大規模言語モデルと時系列アライメントフレームワークを提案し、時系列予測課題におけるLLMの可能性を完全に解き放つ。
提案手法は, クロスモーダルな知識蒸留に基づいて, 入力に依存しない静的知識と, 事前学習LLMにおける入力依存動的知識の両方を利用する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - Position Paper: What Can Large Language Models Tell Us about Time Series
Analysis [72.33053089061899]
現在の大規模言語モデル(LLM)は時系列解析に革命をもたらす可能性があると我々は主張する。
このような進歩は、モダリティスイッチングや時系列質問応答など、幅広い可能性を解き放つ可能性がある。
論文 参考訳(メタデータ) (2024-02-05T04:17:49Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language
Models [72.77653698874678]
本稿では,大規模言語モデル(LLM)を自動回帰時系列予測器として活用するためにAutoTimesを提案する。
提案手法は, LLM, 追加テキスト, 時系列を命令として利用することにより, 顕著な手法の一般化を実現し, 性能の向上を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Timer: Transformers for Time Series Analysis at Scale [87.9808714449511]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Large Language Models for Time Series: A Survey [37.40756682309043]
大規模言語モデル (LLM) は自然言語処理やコンピュータビジョンといった領域で広く利用されている。
LLMは、気候、IoT、ヘルスケア、トラフィック、オーディオ、ファイナンスといった分野の恩恵を受けながら、時系列データを分析する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-02T07:24:35Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Self-Supervised Learning for Time Series Analysis: Taxonomy, Progress,
and Prospects [87.21528291896783]
自己教師付き学習(SSL)は、最近、様々な時系列タスクで印象的なパフォーマンスを達成した。
この記事では、時系列データに対する最先端のSSLメソッドについてレビューする。
論文 参考訳(メタデータ) (2023-06-16T18:23:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。