論文の概要: ViTime: A Visual Intelligence-Based Foundation Model for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2407.07311v2
- Date: Wed, 14 Aug 2024 08:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 17:26:11.336005
- Title: ViTime: A Visual Intelligence-Based Foundation Model for Time Series Forecasting
- Title(参考訳): ViTime: 時系列予測のためのビジュアルインテリジェンスベースの基礎モデル
- Authors: Luoxiao Yang, Yun Wang, Xinqi Fan, Israel Cohen, Jingdong Chen, Yue Zhao, Zijun Zhang,
- Abstract要約: 本稿では,時系列予測のためのビジュアルインテリジェンスに基づく新しい基礎モデルであるViTimeを提案する。
これまで目にしなかったさまざまな予測データセットの実験は、ViTimeが最先端のゼロショットパフォーマンスを達成することを実証している。
- 参考スコア(独自算出の注目度): 38.87384888881476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of large pretrained models in natural language processing (NLP) and computer vision (CV) has opened new avenues for constructing foundation models for time series forecasting (TSF). Traditional TSF foundation models rely heavily on numerical data fitting. In contrast, the human brain is inherently skilled at processing visual information, prefer predicting future trends by observing visualized sequences. From a biomimetic perspective, utilizing models to directly process numerical sequences might not be the most effective route to achieving Artificial General Intelligence (AGI). This paper proposes ViTime, a novel Visual Intelligence-based foundation model for TSF. ViTime overcomes the limitations of numerical time series data fitting by utilizing visual data processing paradigms and employs a innovative data synthesis method during training, called Real Time Series (RealTS). Experiments on a diverse set of previously unseen forecasting datasets demonstrate that ViTime achieves state-of-the-art zero-shot performance, even surpassing the best individually trained supervised models in some situations. These findings suggest that visual intelligence can significantly enhance time series analysis and forecasting, paving the way for more advanced and versatile models in the field. The code for our framework is accessible at https://github.com/IkeYang/ViTime.
- Abstract(参考訳): 自然言語処理(NLP)とコンピュータビジョン(CV)における大規模事前学習モデルの成功は、時系列予測(TSF)の基礎モデルを構築するための新たな道を開いた。
伝統的なTSFファンデーションモデルは数値データフィッティングに大きく依存している。
対照的に、人間の脳は視覚情報を処理するのに本質的に熟練しており、可視化されたシーケンスを観察することで将来のトレンドを予測することを好む。
生体模倣の観点からは、数値シーケンスを直接処理するモデルを活用することは、人工知能(AGI)を実現するための最も効果的な方法ではないかもしれない。
本稿では,TSFのための新しいビジュアルインテリジェンスベース基盤モデルであるViTimeを提案する。
ViTimeは、ビジュアルデータ処理パラダイムを活用することで、数値時系列データフィッティングの限界を克服し、Real Time Series (RealTS)と呼ばれるトレーニング中に革新的なデータ合成手法を採用する。
これまで目にしなかったさまざまな予測データセットの実験は、ViTimeが最先端のゼロショットのパフォーマンスを達成し、いくつかの状況において最高のトレーニングを受けた教師付きモデルを超えていることを示している。
これらの結果は、視覚知能は時系列解析と予測を大幅に向上させ、現場におけるより高度で多目的なモデルへの道を開くことを示唆している。
私たちのフレームワークのコードはhttps://github.com/IkeYang/ViTime.comでアクセスできます。
関連論文リスト
- General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - FoundTS: Comprehensive and Unified Benchmarking of Foundation Models for Time Series Forecasting [44.33565276128137]
時系列予測(TSF)は、金融、気象サービス、エネルギー管理など、多くの分野で重要な機能である。
ファンデーションモデルは、新しいまたは見えないデータで有望な推論機能を示す。
そこで我々は,そのようなモデルの徹底的かつ公平な評価と比較を可能にする新しいベンチマーク FoundTS を提案する。
論文 参考訳(メタデータ) (2024-10-15T17:23:49Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - GIFT-Eval: A Benchmark For General Time Series Forecasting Model Evaluation [90.53485251837235]
時系列基礎モデルはゼロショット予測に優れ、明示的なトレーニングなしで多様なタスクを処理する。
GIFT-Evalは、多様なデータセットに対する評価を促進するための先駆的なベンチマークである。
GIFT-Evalには、144,000の時系列と17700万のデータポイントの23のデータセットが含まれている。
論文 参考訳(メタデータ) (2024-10-14T11:29:38Z) - VisionTS: Visual Masked Autoencoders Are Free-Lunch Zero-Shot Time Series Forecasters [27.80286758290421]
本稿では,リッチで高品質な自然画像からTSFファンデーションモデルを構築するための新しい道を探る。
画像再構成タスクとしてTSFを再構成することにより、画像事前学習とTSF下流タスクのギャップを埋める。
提案されたVisionTSは、既存のTSFファンデーションモデルよりもゼロショット予測性能が向上する可能性がある。
論文 参考訳(メタデータ) (2024-08-30T12:51:55Z) - Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - Understanding Different Design Choices in Training Large Time Series Models [71.20102277299445]
不均一な時系列データに基づく大規模時系列モデル(LTSMs)のトレーニングには,ユニークな課題が伴う。
本稿では,時系列データに合わせた新しい統計プロンプトである,時系列プロンプトを提案する。
textttLTSM-bundleを導入します。
論文 参考訳(メタデータ) (2024-06-20T07:09:19Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - FrAug: Frequency Domain Augmentation for Time Series Forecasting [6.508992154478217]
データ拡張(DA)は、ディープラーニングのためのトレーニングデータサイズを拡張するデファクトソリューションになっています。
本稿では、予測における拡張データ-ラベルペアのセマンティック一貫性を保証するための、単純で効果的な周波数領域拡張手法を提案する。
その結果,ほとんどの場合,FrAugはTSFモデルの予測精度を高めることができることがわかった。
論文 参考訳(メタデータ) (2023-02-18T11:25:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。