論文の概要: UniCast: A Unified Multimodal Prompting Framework for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2508.11954v1
- Date: Sat, 16 Aug 2025 07:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.480895
- Title: UniCast: A Unified Multimodal Prompting Framework for Time Series Forecasting
- Title(参考訳): UniCast: 時系列予測のための統一マルチモーダルプロンプトフレームワーク
- Authors: Sehyuk Park, Soyeon Caren Han, Eduard Hovy,
- Abstract要約: 時系列予測は、ファイナンス、ヘルスケア、環境モニタリングといった分野における基本的なタスクである。
既存のモデルは、視覚やテキストなどのリッチなマルチモーダルコンテキストを無視し、実世界のシナリオで時系列データを伴って運用される。
本稿では、TSFMを拡張して時系列、視覚、テキストのモダリティを併用して予測性能を向上する、パラメータ効率の高い新しいマルチモーダルフレームワークUniCastを提案する。
- 参考スコア(独自算出の注目度): 9.836278124939453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series forecasting is a foundational task across domains, such as finance, healthcare, and environmental monitoring. While recent advances in Time Series Foundation Models (TSFMs) have demonstrated strong generalisation through large-scale pretraining, existing models operate predominantly in a unimodal setting, ignoring the rich multimodal context, such as visual and textual signals, that often accompanies time series data in real-world scenarios. This paper introduces a novel parameter-efficient multimodal framework, UniCast, that extends TSFMs to jointly leverage time series, vision, and text modalities for enhanced forecasting performance. Our method integrates modality-specific embeddings from pretrained Vision and Text Encoders with a frozen TSFM via soft prompt tuning, enabling efficient adaptation with minimal parameter updates. This design not only preserves the generalisation strength of the foundation model but also enables effective cross-modal interaction. Extensive experiments across diverse time-series forecasting benchmarks demonstrate that UniCast consistently and significantly outperforms all existing TSFM baselines. The findings highlight the critical role of multimodal context in advancing the next generation of general-purpose time series forecasters.
- Abstract(参考訳): 時系列予測は、ファイナンス、ヘルスケア、環境モニタリングといった分野における基本的なタスクである。
時系列基礎モデル(TSFM)の最近の進歩は、大規模な事前訓練を通じて強力な一般化を示しているが、既存のモデルは、実世界のシナリオにおいて時系列データに付随する視覚的・テキスト的信号のようなリッチなマルチモーダルなコンテキストを無視して、主に単調な環境で動作している。
本稿では,TSFMを拡張して時系列,視覚,テキストモダリティを併用して予測性能を向上する,パラメータ効率の高い新しいマルチモーダルフレームワークUniCastを提案する。
本手法は,事前学習したビジョンとテキストエンコーダのモダリティ固有の埋め込みをソフトプロンプトチューニングによる冷凍TSFMと統合し,最小限のパラメータ更新による効率的な適応を実現する。
この設計は基礎モデルの一般化強度を保持するだけでなく、効果的な相互モーダル相互作用を可能にする。
様々な時系列予測ベンチマークの広範な実験は、UniCastが既存のTSFMベースラインを一貫して、著しく上回っていることを示している。
その結果,次世代の汎用時系列予測装置の進展において,マルチモーダルな文脈が重要な役割を担っていることが明らかになった。
関連論文リスト
- Multi-Scale Finetuning for Encoder-based Time Series Foundation Models [56.503053716053]
時系列基礎モデル (TSFM) は, 時系列予測において印象的なゼロショット性能を示す。
我々は、TSFMの能力を十分に活用するに足りず、しばしば過度な適合と準最適性能をもたらすと論じている。
マルチスケールモデリングをファインタニングプロセスに明示的に統合するシンプルなフレームワークであるtextbftextscfinetextbftextsctuning (textbfMSFT)を提案する。
論文 参考訳(メタデータ) (2025-06-17T01:06:01Z) - TS-RAG: Retrieval-Augmented Generation based Time Series Foundation Models are Stronger Zero-Shot Forecaster [14.512119661418522]
時系列予測のための検索拡張生成フレームワークTS-RAGを提案する。
具体的には、TS-RAGはトレーニング済みの時系列エンコーダを利用して、専用の知識ベースから意味的に関連するセグメントを検索する。
TS-RAG は最先端のゼロショット予測性能を達成し,既存の TSFM を6.84% まで上回った。
論文 参考訳(メタデータ) (2025-03-06T16:48:48Z) - TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(TaTS)は、既存の数値のみの時系列モデルにプラグインできる。
TaTSはモデルアーキテクチャを変更することなく予測性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - LAST SToP For Modeling Asynchronous Time Series [19.401463051705377]
Asynchronous Time Series に合わせたLarge Language Models (LLM) のための新しいプロンプト設計を提案する。
我々のアプローチはイベント記述のリッチな自然言語を効果的に活用し、LLMはさまざまなドメインやタスクをまたがる推論において、広範囲にわたる知識の恩恵を受けることができる。
さらに、モデル性能を大幅に向上させる新しいプロンプトチューニング機構であるSoft Promptingを導入し、QLoRAのような既存の微調整方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-04T01:42:45Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。