論文の概要: A Survey of Time Series Foundation Models: Generalizing Time Series Representation with Large Language Model
- arxiv url: http://arxiv.org/abs/2405.02358v2
- Date: Tue, 7 May 2024 01:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 13:00:13.505366
- Title: A Survey of Time Series Foundation Models: Generalizing Time Series Representation with Large Language Model
- Title(参考訳): 時系列基礎モデルに関する調査:大規模言語モデルを用いた時系列表現の一般化
- Authors: Jiexia Ye, Weiqi Zhang, Ke Yi, Yongzi Yu, Ziyue Li, Jia Li, Fugee Tsung,
- Abstract要約: 大規模な言語基盤モデルは、クロスタスク転送性、ゼロショット/フェーショット学習、意思決定説明性といった機能を公開した。
主な研究線は2つあり、例えば、時系列のためにゼロから事前訓練された基礎モデルと、時系列のために大きな言語基盤モデルを適用することである。
本調査は,関連研究の総合的な調査を行うための3E分析フレームワークを提供する。
- 参考スコア(独自算出の注目度): 33.17908422599714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series data are ubiquitous across various domains, making time series analysis critically important. Traditional time series models are task-specific, featuring singular functionality and limited generalization capacity. Recently, large language foundation models have unveiled their remarkable capabilities for cross-task transferability, zero-shot/few-shot learning, and decision-making explainability. This success has sparked interest in the exploration of foundation models to solve multiple time series challenges simultaneously. There are two main research lines, namely pre-training foundation models from scratch for time series and adapting large language foundation models for time series. They both contribute to the development of a unified model that is highly generalizable, versatile, and comprehensible for time series analysis. This survey offers a 3E analytical framework for comprehensive examination of related research. Specifically, we examine existing works from three dimensions, namely Effectiveness, Efficiency and Explainability. In each dimension, we focus on discussing how related works devise tailored solution by considering unique challenges in the realm of time series. Furthermore, we provide a domain taxonomy to help followers keep up with the domain-specific advancements. In addition, we introduce extensive resources to facilitate the field's development, including datasets, open-source, time series libraries. A GitHub repository is also maintained for resource updates (https://github.com/start2020/Awesome-TimeSeries-LLM-FM).
- Abstract(参考訳): 時系列データは様々な領域に分散しており、時系列解析が極めて重要である。
伝統的な時系列モデルはタスク固有であり、特異な機能と限定的な一般化能力を備えている。
近年,大規模言語基盤モデルでは,クロスタスク転送性,ゼロショット/フェーショット学習,意思決定説明性などの特長が明らかにされている。
この成功は、複数の時系列課題を同時に解決する基礎モデルの探求への関心を喚起した。
主な研究線は2つあり、例えば、時系列のためにゼロから事前訓練された基礎モデルと、時系列のために大きな言語基盤モデルを適用することである。
これらは共に、高度に一般化可能で、汎用的で、時系列解析のために理解可能な統一モデルの開発に寄与する。
本調査は,関連研究の総合的な調査を行うための3E分析フレームワークを提供する。
具体的には,有効性,効率性,説明可能性という3つの次元から既存の作品について検討する。
各次元において、時系列の領域におけるユニークな課題を考慮し、関連する作業がどのように調整されたソリューションを創出するかについて議論する。
さらに、我々は、フォロワーがドメイン固有の進歩に追いつくのを助けるために、ドメイン分類を提供する。
さらに、データセット、オープンソース、時系列ライブラリなど、フィールドの開発を容易にするための広範なリソースも導入する。
GitHubリポジトリもリソース更新のためにメンテナンスされている(https://github.com/start 2020/Awesome-TimeSeries-LLM-FM)。
関連論文リスト
- Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - MOMENT: A Family of Open Time-series Foundation Models [19.0845213853369]
汎用時系列解析のためのオープンソース基盤モデルのファミリであるMOMENTを紹介する。
我々は、タイムシリーズパイル(Time series Pile)と呼ばれる公開時系列のコレクションをコンパイルし、時系列固有の課題に体系的に取り組みます。
我々は、様々なタスクやデータセットに関する時系列基礎モデルを、限られた監督設定で評価するためのベンチマークを設計するための最近の作業に基づいて構築する。
論文 参考訳(メタデータ) (2024-02-06T10:48:46Z) - Empowering Time Series Analysis with Large Language Models: A Survey [24.202539098675953]
本稿では,大規模言語モデルを用いた時系列解析手法の体系的概要について述べる。
具体的には、まず、時系列の文脈で言語モデルを適用する際の課題とモチベーションについて述べる。
次に、既存のメソッドを異なるグループ(ダイレクトクエリ、トークン化、プロンプトデザイン、ファインチューン、モデル統合)に分類し、各グループにおける主要なアイデアを強調します。
論文 参考訳(メタデータ) (2024-02-05T16:46:35Z) - Position: What Can Large Language Models Tell Us about Time Series Analysis [69.70906014827547]
現在の大規模言語モデル(LLM)は時系列解析に革命をもたらす可能性があると我々は主張する。
このような進歩は、時系列のモダリティスイッチングや質問応答など、幅広い可能性を解き放つ可能性がある。
論文 参考訳(メタデータ) (2024-02-05T04:17:49Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Large Models for Time Series and Spatio-Temporal Data: A Survey and
Outlook [95.32949323258251]
時系列データ、特に時系列データと時間時間データは、現実世界のアプリケーションで広く使われている。
大規模言語やその他の基礎モデルの最近の進歩は、時系列データマイニングや時間データマイニングでの使用の増加に拍車を掛けている。
論文 参考訳(メタデータ) (2023-10-16T09:06:00Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Time Series Analysis via Network Science: Concepts and Algorithms [62.997667081978825]
本稿では,時系列をネットワークに変換する既存のマッピング手法について概観する。
我々は、主要な概念的アプローチを説明し、権威的な参照を提供し、統一された表記法と言語におけるそれらの利点と限界について洞察を与える。
ごく最近の研究だが、この研究領域には大きな可能性を秘めており、今後の研究の道を開くことを目的としている。
論文 参考訳(メタデータ) (2021-10-11T13:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。