論文の概要: Context-Aware Probabilistic Modeling with LLM for Multimodal Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2505.10774v1
- Date: Fri, 16 May 2025 01:23:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.785424
- Title: Context-Aware Probabilistic Modeling with LLM for Multimodal Time Series Forecasting
- Title(参考訳): マルチモーダル時系列予測のためのLLMを用いた文脈認識確率モデリング
- Authors: Yueyang Yao, Jiajun Li, Xingyuan Dai, MengMeng Zhang, Xiaoyan Gong, Fei-Yue Wang, Yisheng Lv,
- Abstract要約: 本稿では,文脈を考慮した確率的マルチモーダル時系列予測手法であるCAPTimeを提案する。
提案手法はまず,事前学習した時系列エンコーダを用いて時間パターンを符号化し,学習可能なインタラクションを通じてテキストコンテキストと整列する。
多様な時系列予測タスクの実験では、CAPTimeの精度と一般化が優れている。
- 参考スコア(独自算出の注目度): 24.56167831047955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is important for applications spanning energy markets, climate analysis, and traffic management. However, existing methods struggle to effectively integrate exogenous texts and align them with the probabilistic nature of large language models (LLMs). Current approaches either employ shallow text-time series fusion via basic prompts or rely on deterministic numerical decoding that conflict with LLMs' token-generation paradigm, which limits contextual awareness and distribution modeling. To address these limitations, we propose CAPTime, a context-aware probabilistic multimodal time series forecasting method that leverages text-informed abstraction and autoregressive LLM decoding. Our method first encodes temporal patterns using a pretrained time series encoder, then aligns them with textual contexts via learnable interactions to produce joint multimodal representations. By combining a mixture of distribution experts with frozen LLMs, we enable context-aware probabilistic forecasting while preserving LLMs' inherent distribution modeling capabilities. Experiments on diverse time series forecasting tasks demonstrate the superior accuracy and generalization of CAPTime, particularly in multimodal scenarios. Additional analysis highlights its robustness in data-scarce scenarios through hybrid probabilistic decoding.
- Abstract(参考訳): 時系列予測は、エネルギー市場、気候分析、交通管理にまたがるアプリケーションにとって重要である。
しかし、既存の手法では、外因性テキストを効果的に統合し、大きな言語モデル(LLM)の確率的性質と整合させることが困難である。
現在のアプローチでは、基本的なプロンプトを介して浅いテキスト時間級数融合を利用するか、LLMのトークン生成パラダイムと矛盾する決定論的数値復号に依存している。
これらの制約に対処するために,テキストインフォームド抽象化と自己回帰型LPMデコーディングを利用した,文脈対応の確率的マルチモーダル時系列予測手法であるCAPTimeを提案する。
提案手法はまず,事前学習した時系列エンコーダを用いて時間パターンを符号化し,学習可能なインタラクションを通じてテキストコンテキストと整列し,共同マルチモーダル表現を生成する。
分布エキスパートの混合と凍結LDMを組み合わせることで、LLM固有の分布モデリング能力を保ちながら、文脈認識確率予測を可能にする。
多様な時系列予測タスクの実験では、特にマルチモーダルシナリオにおいてCAPTimeの精度と一般化が優れていることが示されている。
さらなる分析では、ハイブリッド確率的復号化によるデータスカースシナリオの堅牢性を強調している。
関連論文リスト
- LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Explainable Multi-modal Time Series Prediction with LLM-in-the-Loop [63.34626300024294]
TimeXLはプロトタイプベースの時系列エンコーダを統合するマルチモーダル予測フレームワークである。
より正確な予測と解釈可能な説明を生成する。
4つの実世界のデータセットに対する実証的な評価は、TimeXLがAUCで最大8.9%の改善を達成していることを示している。
論文 参考訳(メタデータ) (2025-03-02T20:40:53Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。