論文の概要: A Survey of Time Series Foundation Models: Generalizing Time Series Representation with Large Language Mode
- arxiv url: http://arxiv.org/abs/2405.02358v1
- Date: Fri, 3 May 2024 03:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 20:19:44.928319
- Title: A Survey of Time Series Foundation Models: Generalizing Time Series Representation with Large Language Mode
- Title(参考訳): 時系列基礎モデルに関する調査:大言語モードによる時系列表現の一般化
- Authors: Jiexia Ye, Weiqi Zhang, Ke Yi, Yongzi Yu, Ziyue Li, Jia Li, Fugee Tsung,
- Abstract要約: 伝統的な時系列モデルはタスク固有であり、特異な機能と限定的な一般化能力を備えている。
大規模な言語基盤モデルは、クロスタスク転送性、ゼロショット/フェーショット学習、意思決定説明性といった、目覚ましい機能を公開した。
本調査は,関連研究の総合的な調査を行うための3E分析フレームワークを提供する。
- 参考スコア(独自算出の注目度): 33.17908422599714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series data are ubiquitous across various domains, making time series analysis critically important. Traditional time series models are task-specific, featuring singular functionality and limited generalization capacity. Recently, large language foundation models have unveiled their remarkable capabilities for cross-task transferability, zero-shot/few-shot learning, and decision-making explainability. This success has sparked interest in the exploration of foundation models to solve multiple time series challenges simultaneously. There are two main research lines, namely \textbf{pre-training foundation models from scratch for time series} and \textbf{adapting large language foundation models for time series}. They both contribute to the development of a unified model that is highly generalizable, versatile, and comprehensible for time series analysis. This survey offers a 3E analytical framework for comprehensive examination of related research. Specifically, we examine existing works from three dimensions, namely \textbf{Effectiveness}, \textbf{Efficiency} and \textbf{Explainability}. In each dimension, we focus on discussing how related works devise tailored solution by considering unique challenges in the realm of time series.Furthermore, we provide a domain taxonomy to help followers keep up with the domain-specific advancements. In addition, we introduce extensive resources to facilitate the field's development, including datasets, open-source, time series libraries. A GitHub repository is also maintained for resource updates (https://github.com/start2020/Awesome-TimeSeries-LLM-FM).
- Abstract(参考訳): 時系列データは様々な領域に分散しており、時系列解析が極めて重要である。
伝統的な時系列モデルはタスク固有であり、特異な機能と限定的な一般化能力を備えている。
近年,大規模言語基盤モデルでは,クロスタスク転送性,ゼロショット/フェーショット学習,意思決定説明性などの特長が明らかにされている。
この成功は、複数の時系列課題を同時に解決する基礎モデルの探求への関心を喚起した。
主な研究線は2つあり、例えば、時系列のスクラッチから得られる \textbf{pre-training foundation model と、時系列の大規模言語基盤モデルに対応する \textbf{adapting large language foundation model である。
これらは共に、高度に一般化可能で、汎用的で、時系列解析のために理解可能な統一モデルの開発に寄与する。
本調査は,関連研究の総合的な調査を行うための3E分析フレームワークを提供する。
具体的には、既存の3次元、すなわち \textbf{Effectiveness} 、 \textbf{Efficiency} 、 \textbf{Explainability} の作品を検証する。
各分野において、時系列の領域におけるユニークな課題を考慮し、関連する作品がどのように適合したソリューションを創出するかを議論することに焦点を当て、さらに、フォロワーがドメイン固有の進歩に追随するのを助けるために、ドメイン分類を提供する。
さらに、データセット、オープンソース、時系列ライブラリなど、フィールドの開発を容易にするための広範なリソースも導入する。
GitHubリポジトリもリソース更新のためにメンテナンスされている(https://github.com/start 2020/Awesome-TimeSeries-LLM-FM)。
関連論文リスト
- Harnessing Vision Models for Time Series Analysis: A Survey [72.09716244582684]
本研究は, 時系列解析におけるLLMよりも視覚モデルの方が優れていることを示す。
既存の方法の包括的かつ詳細な概要を提供し、詳細な分類学の双対的な見解を提供する。
このフレームワークに関わる前処理と後処理のステップにおける課題に対処する。
論文 参考訳(メタデータ) (2025-02-13T00:42:11Z) - General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
時系列の不均一性を扱うために特別に設計された新しい事前学習パラダイムを導入する。
本稿では、学習可能なドメインシグネチャ、二重マスキング戦略、正規化相互相関損失を持つトークンサを提案する。
私たちのコードと事前訓練されたウェイトはhttps://www.oetu.com/oetu/otis.comで公開されています。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - TOTEM: TOkenized Time Series EMbeddings for General Time Series Analysis [29.232543319667005]
この研究は、一般(または基礎)モデルを用いた時系列解析の問題を研究する。
自己スーパービジョンを用いて、無数のデータセットから得られた時系列データを離散的にトークン化する簡単な方法を検討する。
本稿では,Tokenized Time Series EMbeddings (TOTEM) を用いて,極小ないし無小の時系列モデルを生成する。
論文 参考訳(メタデータ) (2024-02-26T09:11:12Z) - MOMENT: A Family of Open Time-series Foundation Models [19.0845213853369]
汎用時系列解析のためのオープンソース基盤モデルのファミリであるMOMENTを紹介する。
我々は、タイムシリーズパイル(Time series Pile)と呼ばれる公開時系列のコレクションをコンパイルし、時系列固有の課題に体系的に取り組みます。
我々は、様々なタスクやデータセットに関する時系列基礎モデルを、限られた監督設定で評価するためのベンチマークを設計するための最近の作業に基づいて構築する。
論文 参考訳(メタデータ) (2024-02-06T10:48:46Z) - Position: What Can Large Language Models Tell Us about Time Series Analysis [69.70906014827547]
現在の大規模言語モデル(LLM)は時系列解析に革命をもたらす可能性があると我々は主張する。
このような進歩は、時系列のモダリティスイッチングや質問応答など、幅広い可能性を解き放つ可能性がある。
論文 参考訳(メタデータ) (2024-02-05T04:17:49Z) - Large Models for Time Series and Spatio-Temporal Data: A Survey and
Outlook [95.32949323258251]
時系列データ、特に時系列データと時間時間データは、現実世界のアプリケーションで広く使われている。
大規模言語やその他の基礎モデルの最近の進歩は、時系列データマイニングや時間データマイニングでの使用の増加に拍車を掛けている。
論文 参考訳(メタデータ) (2023-10-16T09:06:00Z) - Time Series Analysis via Network Science: Concepts and Algorithms [62.997667081978825]
本稿では,時系列をネットワークに変換する既存のマッピング手法について概観する。
我々は、主要な概念的アプローチを説明し、権威的な参照を提供し、統一された表記法と言語におけるそれらの利点と限界について洞察を与える。
ごく最近の研究だが、この研究領域には大きな可能性を秘めており、今後の研究の道を開くことを目的としている。
論文 参考訳(メタデータ) (2021-10-11T13:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。