論文の概要: Harnessing Vision Models for Time Series Analysis: A Survey
- arxiv url: http://arxiv.org/abs/2502.08869v1
- Date: Thu, 13 Feb 2025 00:42:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 20:05:35.044609
- Title: Harnessing Vision Models for Time Series Analysis: A Survey
- Title(参考訳): 時系列解析のためのハーネスング視覚モデル:調査
- Authors: Jingchao Ni, Ziming Zhao, ChengAo Shen, Hanghang Tong, Dongjin Song, Wei Cheng, Dongsheng Luo, Haifeng Chen,
- Abstract要約: 本研究は, 時系列解析におけるLLMよりも視覚モデルの方が優れていることを示す。
既存の方法の包括的かつ詳細な概要を提供し、詳細な分類学の双対的な見解を提供する。
このフレームワークに関わる前処理と後処理のステップにおける課題に対処する。
- 参考スコア(独自算出の注目度): 72.09716244582684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series analysis has witnessed the inspiring development from traditional autoregressive models, deep learning models, to recent Transformers and Large Language Models (LLMs). Efforts in leveraging vision models for time series analysis have also been made along the way but are less visible to the community due to the predominant research on sequence modeling in this domain. However, the discrepancy between continuous time series and the discrete token space of LLMs, and the challenges in explicitly modeling the correlations of variates in multivariate time series have shifted some research attentions to the equally successful Large Vision Models (LVMs) and Vision Language Models (VLMs). To fill the blank in the existing literature, this survey discusses the advantages of vision models over LLMs in time series analysis. It provides a comprehensive and in-depth overview of the existing methods, with dual views of detailed taxonomy that answer the key research questions including how to encode time series as images and how to model the imaged time series for various tasks. Additionally, we address the challenges in the pre- and post-processing steps involved in this framework and outline future directions to further advance time series analysis with vision models.
- Abstract(参考訳): 時系列分析は、従来の自己回帰モデル、ディープラーニングモデルから最近のトランスフォーマーおよび大規模言語モデル(LLM)まで、インスパイアされた発展を目撃している。
時系列分析に視覚モデルを活用する取り組みも行われているが、この領域におけるシーケンスモデリングの研究が主流であるために、コミュニティにはあまり知られていない。
しかし、連続時系列とLLMの離散トークン空間の相違、多変量時系列における変数の相関関係を明示的にモデル化することの難しさは、同様に成功したLVM(Large Vision Models)とVLM(Vision Language Models)にいくつかの研究の注意を移した。
既存の文献の空白を埋めるために, 時系列解析におけるLCMよりも視覚モデルの方が優れていることを考察した。
これには、時系列を画像としてエンコードする方法や、画像化された時系列を様々なタスクのためにモデル化する方法など、主要な研究課題に答える、詳細な分類学の2つの見解が含まれている。
さらに,本フレームワークにおける前処理と後処理の課題に対処し,視覚モデルを用いた時系列解析のさらなる進展に向けた今後の方向性を概説する。
関連論文リスト
- Foundation Models for Time Series: A Survey [0.27835153780240135]
トランスフォーマーベースの基礎モデルは時系列解析において支配的なパラダイムとして現れてきた。
この調査は、いくつかの分野にまたがって分類する新しい分類法を導入している。
論文 参考訳(メタデータ) (2025-04-05T01:27:55Z) - Vision-Enhanced Time Series Forecasting via Latent Diffusion Models [12.54316645614762]
LDM4TSは視覚強調時系列予測のための遅延拡散モデルの強力な画像再構成機能を利用する新しいフレームワークである。
時系列を多視点視覚表現に変換するための補完的変換手法を最初に用いた。
論文 参考訳(メタデータ) (2025-02-16T14:15:06Z) - Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - TimeLDM: Latent Diffusion Model for Unconditional Time Series Generation [2.4454605633840143]
時系列生成は意思決定システムにおいて重要な研究課題である。
最近のアプローチでは、時系列情報をモデル化するために、データ空間での学習に焦点を当てている。
高品質な時系列生成のための新しい遅延拡散モデルであるTimeLDMを提案する。
論文 参考訳(メタデータ) (2024-07-05T01:47:20Z) - PDETime: Rethinking Long-Term Multivariate Time Series Forecasting from
the perspective of partial differential equations [49.80959046861793]
本稿では,ニューラルPDEソルバの原理に着想を得た新しいLMTFモデルであるPDETimeを提案する。
7つの異なる時間的実世界のLMTFデータセットを用いた実験により、PDETimeがデータ固有の性質に効果的に適応できることが判明した。
論文 参考訳(メタデータ) (2024-02-25T17:39:44Z) - Empowering Time Series Analysis with Large Language Models: A Survey [24.202539098675953]
本稿では,大規模言語モデルを用いた時系列解析手法の体系的概要について述べる。
具体的には、まず、時系列の文脈で言語モデルを適用する際の課題とモチベーションについて述べる。
次に、既存のメソッドを異なるグループ(ダイレクトクエリ、トークン化、プロンプトデザイン、ファインチューン、モデル統合)に分類し、各グループにおける主要なアイデアを強調します。
論文 参考訳(メタデータ) (2024-02-05T16:46:35Z) - Position: What Can Large Language Models Tell Us about Time Series Analysis [69.70906014827547]
現在の大規模言語モデル(LLM)は時系列解析に革命をもたらす可能性があると我々は主張する。
このような進歩は、時系列のモダリティスイッチングや質問応答など、幅広い可能性を解き放つ可能性がある。
論文 参考訳(メタデータ) (2024-02-05T04:17:49Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。