論文の概要: Empowering Time Series Analysis with Large-Scale Multimodal Pretraining
- arxiv url: http://arxiv.org/abs/2602.05646v1
- Date: Thu, 05 Feb 2026 13:26:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.945462
- Title: Empowering Time Series Analysis with Large-Scale Multimodal Pretraining
- Title(参考訳): 大規模マルチモーダル事前学習による時系列解析
- Authors: Peng Chen, Siyuan Wang, Shiyan Hu, Xingjian Wu, Yang Shu, Zhongwen Rao, Meng Wang, Yijie Li, Bin Yang, Chenjuan Guo,
- Abstract要約: マルチモーダル・ファンデーション・モデルの構築は次の自然なステップだが、重要な課題に直面している。
時系列解析のための統合型マルチモーダル事前学習パラダイムと大規模マルチモーダルコーパスの欠如
不均一なモジュラリティを効果的に統合し、モデルの一般化を強化する方法。
- 参考スコア(独自算出の注目度): 34.22079919081765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While existing time series foundation models primarily rely on large-scale unimodal pretraining, they lack complementary modalities to enhance time series understanding. Building multimodal foundation models is a natural next step, but it faces key challenges: 1) lack of a unified multimodal pretraining paradigm and large-scale multimodal corpora for time series analysis; 2) how to effectively integrate heterogeneous modalities and enhance model generalization. To address these challenges, we take an early step toward multimodal foundation models for time series analysis. We first propose a multimodal pretraining paradigm that leverages time series with endogenous modalities (derived images and text) and exogenous knowledge (real-world news), providing a comprehensive multi-view perspective for time series analysis. To support this, we develop an automated data construction pipeline to curate MM-TS, the first large-scale multimodal time series dataset spanning six domains, with up to one billion points. Then we propose HORAI, a frequency-enhanced multimodal foundation model. It integrates two core components: the Frequency-enhanced Cross-Modality Encoder and the Time-Frequency Decoder, designed to effectively fuse multimodal features and enhance model generalization across modalities and domains. After pretraining on MM-TS, HORAI achieves state-of-the-art zero-shot performance on time series forecasting and anomaly detection tasks, demonstrating strong generalization.
- Abstract(参考訳): 既存の時系列基礎モデルは、主に大規模な単潮前訓練に依存しているが、時系列理解を強化するための補完的なモダリティは欠如している。
マルチモーダル・ファンデーション・モデルの構築は次の自然なステップだが、重要な課題に直面している。
1) 時系列解析のための統合型マルチモーダル事前学習パラダイムと大規模マルチモーダルコーパスの欠如
2) 不均一なモダリティを効果的に統合し、モデル一般化を強化する方法。
これらの課題に対処するため、時系列解析のためのマルチモーダル基礎モデルに向けた早期の一歩を踏み出した。
まず、内因性モーダル性(画像とテキスト)と外因性知識(現実世界のニュース)を備えた時系列を利用したマルチモーダル事前学習パラダイムを提案し、時系列分析のための総合的な多視点視点視点を提供する。
これをサポートするために、最大10億ポイントの6つのドメインにまたがる最初の大規模マルチモーダル時系列データセットであるMM-TSをキュレートする自動データ構築パイプラインを開発した。
次に,周波数強調型マルチモーダル基礎モデルであるHORAIを提案する。
周波数拡張型クロスモダリティエンコーダと時間周波数デコーダの2つのコアコンポーネントを統合し、マルチモーダル機能を効果的に融合し、モダリティとドメイン間のモデル一般化を強化する。
MM-TSの事前訓練後,時系列予測および異常検出タスクにおける最先端のゼロショット性能を達成し,強力な一般化を示す。
関連論文リスト
- FusAD: Time-Frequency Fusion with Adaptive Denoising for General Time Series Analysis [92.23551599659186]
時系列分析は、金融、医療、産業、気象学などの分野において重要な役割を果たす。
FusADは多様な時系列タスク用に設計された統合分析フレームワークである。
論文 参考訳(メタデータ) (2025-12-16T04:34:27Z) - UniCast: A Unified Multimodal Prompting Framework for Time Series Forecasting [9.836278124939453]
時系列予測は、ファイナンス、ヘルスケア、環境モニタリングといった分野における基本的なタスクである。
既存のモデルは、視覚やテキストなどのリッチなマルチモーダルコンテキストを無視し、実世界のシナリオで時系列データを伴って運用される。
本稿では、TSFMを拡張して時系列、視覚、テキストのモダリティを併用して予測性能を向上する、パラメータ効率の高い新しいマルチモーダルフレームワークUniCastを提案する。
論文 参考訳(メタデータ) (2025-08-16T07:33:27Z) - Time Tracker: Mixture-of-Experts-Enhanced Foundation Time Series Forecasting Model with Decoupled Training Pipelines [5.543238821368548]
時系列はしばしば、異なる時間帯と領域にまたがる時間パターンに顕著な多様性を示す。
Time Trackerは、精度、モデルの一般化、適応性を予測する際に最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-21T06:18:41Z) - Multi-modal Time Series Analysis: A Tutorial and Survey [36.93906365779472]
マルチモーダル時系列分析はデータマイニングにおいて顕著な研究領域となっている。
しかし、マルチモーダル時系列の効果的な解析は、データの不均一性、モダリティギャップ、不整合、固有ノイズによって妨げられる。
マルチモーダル時系列法の最近の進歩は、クロスモーダル相互作用を通じて、マルチモーダルコンテキストを利用した。
論文 参考訳(メタデータ) (2025-03-17T20:30:02Z) - General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。