論文の概要: ViTime: A Visual Intelligence-Based Foundation Model for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2407.07311v3
- Date: Sat, 08 Feb 2025 05:05:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 18:57:48.667375
- Title: ViTime: A Visual Intelligence-Based Foundation Model for Time Series Forecasting
- Title(参考訳): ViTime: 時系列予測のためのビジュアルインテリジェンスベースの基礎モデル
- Authors: Luoxiao Yang, Yun Wang, Xinqi Fan, Israel Cohen, Jingdong Chen, Yue Zhao, Zijun Zhang,
- Abstract要約: 時系列予測(TSF)は、電力やエネルギー、輸送など、様々な分野で大きな実践的価値を持っている。
本稿では, TSFファウンデーションモデルの開発において先駆的な研究を行い, 視覚情報を利用したフレームワークであるViTimeを初めて提案する。
- 参考スコア(独自算出の注目度): 38.87384888881476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting (TSF) possesses great practical values in various fields, including power and energy, transportation, etc. TSF methods have been studied based on knowledge from classical statistics to modern deep learning. Yet, all of them were developed based on one fundamental concept, the numerical data fitting. Thus, the models developed have been long known for being problem-specific and lacking application generalizability. A TSF foundation model serving TSF tasks across different applications can reverse such an impression. The central question is then how to develop such a TSF foundation model. This paper offers a pioneering study in developing a TSF foundation model and proposes a vision intelligence-powered framework, ViTime, for the first time. In ViTime, a method synthesizing authentic time series periodic and trend patterns is developed to enrich sample pattern diversity. A deep architecture operating TSF in image metric space is designed to achieve significantly enhanced TSF generalizability. Extensive experiments demonstrate ViTime's SOTA performance across multiple settings. In zero-shot scenarios, ViTime outperforms TimesFM by 9-15%. With just 10% fine-tuning data, ViTime surpasses both foundation models and fully-supervised benchmarks trained on complete datasets, with this performance gap widening further at 100\% fine-tuning. Additionally, ViTime exhibits exceptional robustness, handling missing data without imputation and outperforming TimesFM by 20-30% under various data perturbations.
- Abstract(参考訳): 時系列予測(TSF)は、電力やエネルギー、輸送など、様々な分野で大きな実践的価値を持っている。
TSF法は、古典統計学から現代のディープラーニングへの知識に基づいて研究されている。
しかし、これらは全て1つの基本的な概念である数値データフィッティングに基づいて開発された。
このようにして開発されたモデルは、問題固有であり、アプリケーションの一般化性に欠けることで、長年にわたって知られていた。
TSFファウンデーションモデルは、異なるアプリケーションにまたがってTSFタスクを提供することができ、そのような印象を逆転させることができる。
中心的な疑問は、どのようにしてそのような TSF ファンデーションモデルを開発するかである。
本稿では, TSFファウンデーションモデルの開発において先駆的な研究を行い, 視覚情報を利用したフレームワークであるViTimeを初めて提案する。
ViTimeでは、サンプルパターンの多様性を豊かにするために、実時間時系列とトレンドパターンを合成する手法を開発した。
画像距離空間における深層構造操作TSFは、大幅に拡張されたTSF一般化性を実現するように設計されている。
大規模な実験では、ViTimeのSOTAパフォーマンスが複数の設定にわたって示されている。
ゼロショットのシナリオでは、ViTimeはTimesFMを9-15%上回っている。
わずか10%の微調整データで、ViTimeはファンデーションモデルと完全なデータセットでトレーニングされた完全教師付きベンチマークの両方を上回り、このパフォーマンスギャップは100倍の微調整でさらに広がる。
さらに、ViTimeは例外的なロバスト性を示し、計算不能なデータを処理し、さまざまなデータ摂動の下でTimesFMを20~30%上回っている。
関連論文リスト
- UniSTD: Towards Unified Spatio-Temporal Learning across Diverse Disciplines [64.84631333071728]
本稿では,時間的モデリングのためのトランスフォーマーベースの統合フレームワークであるbfUnistageを紹介する。
我々の研究は、タスク固有の視覚テキストが時間学習のための一般化可能なモデルを構築することができることを示した。
また、時間的ダイナミクスを明示的に組み込むための時間的モジュールも導入する。
論文 参考訳(メタデータ) (2025-03-26T17:33:23Z) - TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - Beyond Fixed Variables: Expanding-variate Time Series Forecasting via Flat Scheme and Spatio-temporal Focal Learning [9.205228068704141]
現実世界のアプリケーションでは、Cyber-Physical Systemsはしばしば新しいセンサーが登場するにつれて拡張され、MTSFの変数が増加する。
本課題は,(1)新しい変数の追加による不整合データ処理,(2)時間的不整合学習に対処する,というユニークな課題を提示する。
これらの課題に対処するため, フレキシブル時間予測フレームワークSTEVを提案する。
論文 参考訳(メタデータ) (2025-02-21T08:43:26Z) - FoundTS: Comprehensive and Unified Benchmarking of Foundation Models for Time Series Forecasting [44.33565276128137]
時系列予測(TSF)は、金融、気象サービス、エネルギー管理など、多くの分野で重要な機能である。
ファンデーションモデルは、新しいまたは見えないデータで有望な推論機能を示す。
そこで我々は,そのようなモデルの徹底的かつ公平な評価と比較を可能にする新しいベンチマーク FoundTS を提案する。
論文 参考訳(メタデータ) (2024-10-15T17:23:49Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - VisionTS: Visual Masked Autoencoders Are Free-Lunch Zero-Shot Time Series Forecasters [27.80286758290421]
本稿では,リッチで高品質な自然画像からTSFファンデーションモデルを構築するための新しい道を探る。
画像再構成タスクとしてTSFを再構成することにより、画像事前学習とTSF下流タスクのギャップを埋める。
提案されたVisionTSは、既存のTSFファンデーションモデルよりも優れたゼロショット予測性能を実現することができる。
論文 参考訳(メタデータ) (2024-08-30T12:51:55Z) - Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - LTSM-Bundle: A Toolbox and Benchmark on Large Language Models for Time Series Forecasting [69.33802286580786]
LTSM-Bundleは総合的なツールボックスであり、LTSMをトレーニングするためのベンチマークである。
複数の次元からLTSMをモジュール化し、ベンチマークし、プロンプト戦略、トークン化アプローチ、ベースモデルの選択、データ量、データセットの多様性を含む。
実験により、この組み合わせは最先端のLTSMや従来のTSF法と比較して、ゼロショットと少数ショットのパフォーマンスが優れていることが示された。
論文 参考訳(メタデータ) (2024-06-20T07:09:19Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - FrAug: Frequency Domain Augmentation for Time Series Forecasting [6.508992154478217]
データ拡張(DA)は、ディープラーニングのためのトレーニングデータサイズを拡張するデファクトソリューションになっています。
本稿では、予測における拡張データ-ラベルペアのセマンティック一貫性を保証するための、単純で効果的な周波数領域拡張手法を提案する。
その結果,ほとんどの場合,FrAugはTSFモデルの予測精度を高めることができることがわかった。
論文 参考訳(メタデータ) (2023-02-18T11:25:42Z) - VQ-AR: Vector Quantized Autoregressive Probabilistic Time Series
Forecasting [10.605719154114354]
時系列モデルは過去の予測を正確に予測することを目的としており、そこではビジネス上の意思決定のような重要な下流のタスクに予測が使用される。
本稿では,新しい自己回帰型アーキテクチャであるVQ-ARを提案する。
論文 参考訳(メタデータ) (2022-05-31T15:43:46Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。