論文の概要: Aurora: Towards Universal Generative Multimodal Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2509.22295v1
- Date: Fri, 26 Sep 2025 12:56:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.435508
- Title: Aurora: Towards Universal Generative Multimodal Time Series Forecasting
- Title(参考訳): Aurora:Universal Generative Multimodal Time Series Forecastingを目指して
- Authors: Xingjian Wu, Jianxin Jin, Wanghui Qiu, Peng Chen, Yang Shu, Bin Yang, Chenjuan Guo,
- Abstract要約: ドメイン間の一般化は時系列予測において非常に重要である。
最近の研究は、時系列基礎モデルとエンドツーエンドのマルチモーダル監視モデルの構築に重点を置いている。
本稿では,マルチモーダル入力とゼロショット推論をサポートするマルチモーダル時系列ファウンデーションモデルであるAuroraを紹介する。
- 参考スコア(独自算出の注目度): 18.584127942149028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-domain generalization is very important in Time Series Forecasting because similar historical information may lead to distinct future trends due to the domain-specific characteristics. Recent works focus on building unimodal time series foundation models and end-to-end multimodal supervised models. Since domain-specific knowledge is often contained in modalities like texts, the former lacks the explicit utilization of them, thus hindering the performance. The latter is tailored for end-to-end scenarios and does not support zero-shot inference for cross-domain scenarios. In this work, we introduce Aurora, a Multimodal Time Series Foundation Model, which supports multimodal inputs and zero-shot inference. Pretrained on Corss-domain Multimodal Time Series Corpus, Aurora can adaptively extract and focus on key domain knowledge contained in corrsponding text or image modalities, thus possessing strong Cross-domain generalization capability. Through tokenization, encoding, and distillation, Aurora can extract multimodal domain knowledge as guidance and then utilizes a Modality-Guided Multi-head Self-Attention to inject them into the modeling of temporal representations. In the decoding phase, the multimodal representations are used to generate the conditions and prototypes of future tokens, contributing to a novel Prototype-Guided Flow Matching for generative probabilistic forecasting. Comprehensive experiments on well-recognized benchmarks, including TimeMMD, TSFM-Bench and ProbTS, demonstrate the consistent state-of-the-art performance of Aurora on both unimodal and multimodal scenarios.
- Abstract(参考訳): ドメイン間の一般化は時系列予測において非常に重要である。
最近の研究は、時系列基礎モデルとエンドツーエンドのマルチモーダル監視モデルの構築に重点を置いている。
ドメイン固有の知識はテキストのようなモダリティにしばしば含まれるため、前者はそれらの明示的な利用を欠いているため、パフォーマンスを妨げている。
後者はエンドツーエンドのシナリオ用に調整されており、クロスドメインシナリオのゼロショット推論をサポートしない。
本稿では,マルチモーダル入力とゼロショット推論をサポートするマルチモーダル時系列基礎モデルであるAuroraを紹介する。
Aurora は Corss-domain Multimodal Time Series Corpus で事前訓練されており、コースポンディングテキストや画像モダリティに含まれる重要なドメイン知識を適応的に抽出し、焦点を絞ることができるため、クロスドメインの一般化能力が強い。
トークン化、エンコーディング、蒸留を通じて、オーロラはマルチモーダルドメイン知識をガイダンスとして抽出し、モダリティガイドによるマルチヘッド自己認識を用いて、時間表現のモデリングにそれらを注入する。
復号フェーズでは,マルチモーダル表現を用いて将来のトークンの条件とプロトタイプを生成し,生成確率予測のための新しいプロトタイプガイドフローマッチングに寄与する。
TimeMMD、TSFM-Bench、ProbTSなど、よく認識されたベンチマークに関する総合的な実験は、Auroraの非モーダルシナリオとマルチモーダルシナリオにおける一貫したパフォーマンスを実証している。
関連論文リスト
- UniCast: A Unified Multimodal Prompting Framework for Time Series Forecasting [9.836278124939453]
時系列予測は、ファイナンス、ヘルスケア、環境モニタリングといった分野における基本的なタスクである。
既存のモデルは、視覚やテキストなどのリッチなマルチモーダルコンテキストを無視し、実世界のシナリオで時系列データを伴って運用される。
本稿では、TSFMを拡張して時系列、視覚、テキストのモダリティを併用して予測性能を向上する、パラメータ効率の高い新しいマルチモーダルフレームワークUniCastを提案する。
論文 参考訳(メタデータ) (2025-08-16T07:33:27Z) - Time-RA: Towards Time Series Reasoning for Anomaly with LLM Feedback [55.284574165467525]
Time-RA(Time-Series Reasoning for Anomaly)は、時系列異常検出を生成的、推論集約的なタスクに変換する。
また,実世界のマルチモーダルベンチマークデータセットであるRATs40Kを導入する。
論文 参考訳(メタデータ) (2025-07-20T18:02:50Z) - Multivariate Long-term Time Series Forecasting with Fourier Neural Filter [42.60778405812048]
我々はFNFをバックボーンとして、DBDをアーキテクチャとして導入し、空間時間モデルのための優れた学習能力と最適な学習経路を提供する。
FNFは、局所時間領域とグローバル周波数領域の情報処理を単一のバックボーン内で統合し、空間的モデリングに自然に拡張することを示す。
論文 参考訳(メタデータ) (2025-06-10T18:40:20Z) - Multi-modal Time Series Analysis: A Tutorial and Survey [36.93906365779472]
マルチモーダル時系列分析はデータマイニングにおいて顕著な研究領域となっている。
しかし、マルチモーダル時系列の効果的な解析は、データの不均一性、モダリティギャップ、不整合、固有ノイズによって妨げられる。
マルチモーダル時系列法の最近の進歩は、クロスモーダル相互作用を通じて、マルチモーダルコンテキストを利用した。
論文 参考訳(メタデータ) (2025-03-17T20:30:02Z) - MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
時系列の不均一性を扱うために特別に設計された新しい事前学習パラダイムを導入する。
本稿では、学習可能なドメインシグネチャ、二重マスキング戦略、正規化相互相関損失を持つトークンサを提案する。
私たちのコードと事前訓練されたウェイトはhttps://www.oetu.com/oetu/otis.comで公開されています。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - Towards Long-Context Time Series Foundation Models [17.224575072056627]
時系列基礎モデルは、ゼロショットの設定であっても、幅広い領域にわたる様々なタスクにおいて印象的なパフォーマンスを示している。
本研究は,言語領域と時系列領域の両方から,様々な文脈展開手法を体系的に比較することによって,ギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-09-20T14:19:59Z) - Continuous-time convolutions model of event sequences [46.3471121117337]
イベントシーケンスは不均一でスパースであり、従来のモデルは不適当である。
我々は、時間とともに一様でない事象の発生を処理するために設計された効率的な畳み込みニューラルネットワークに基づくCOTICを提案する。
COTICは、次のイベント時間とタイプを予測する際に既存のモデルよりも優れており、最も近いライバルの3.714と比較して平均1.5のランクに達している。
論文 参考訳(メタデータ) (2023-02-13T10:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。