論文の概要: FiCoTS: Fine-to-Coarse LLM-Enhanced Hierarchical Cross-Modality Interaction for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2512.00293v1
- Date: Sat, 29 Nov 2025 03:17:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.15376
- Title: FiCoTS: Fine-to-Coarse LLM-Enhanced Hierarchical Cross-Modality Interaction for Time Series Forecasting
- Title(参考訳): FiCoTS:LLMによる時系列予測のための階層的相互モーダルインタラクション
- Authors: Yafei Lyu, Hao Zhou, Lu Zhang, Xu Yang, Zhiyong Liu,
- Abstract要約: 時系列予測は、データ分析とWeb技術の中心である。
LLM(Large Language Models)はこの分野で大きな可能性を秘めている。
マルチモーダル時系列予測のためのLLM強化ファイン・ツー・コア・フレームワークであるFiCoTSを提案する。
- 参考スコア(独自算出の注目度): 13.70466880923202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is central to data analysis and web technologies. The recent success of Large Language Models (LLMs) offers significant potential for this field, especially from the cross-modality aspect. Most methods adopt an LLM-as-Predictor paradigm, using LLM as the forecasting backbone and designing modality alignment mechanisms to enable LLM to understand time series data. However, the semantic information in the two modalities of time series and text differs significantly, making it challenging for LLM to fully understand time series data. To mitigate this challenge, our work follows an LLM-as-Enhancer paradigm to fully utilize the advantage of LLM in text understanding, where LLM is only used to encode text modality to complement time series modality. Based on this paradigm, we propose FiCoTS, an LLM-enhanced fine-to-coarse framework for multimodal time series forecasting. Specifically, the framework facilitates progressive cross-modality interaction by three levels in a fine-to-coarse scheme: First, in the token-level modality alignment module, a dynamic heterogeneous graph is constructed to filter noise and align time series patches with text tokens; Second, in the feature-level modality interaction module, a global cross-attention mechanism is introduced to enable each time series variable to connect with relevant textual contexts; Third, in the decision-level modality fusion module, we design a gated network to adaptively fuse the results of the two modalities for robust predictions. These three modules work synergistically to let the two modalities interact comprehensively across three semantic levels, enabling textual information to effectively support temporal prediction. Extensive experiments on seven real-world benchmarks demonstrate that our model achieves state-of-the-art performance. The codes will be released publicly.
- Abstract(参考訳): 時系列予測は、データ分析とWeb技術の中心である。
近年のLarge Language Models(LLMs)の成功は、特にモダリティの面から、この分野に大きな可能性を秘めている。
ほとんどの手法では、LLMを予測バックボーンとして使用し、LLMが時系列データを理解するためにモダリティアライメント機構を設計する。
しかし、時系列とテキストの2つのモードにおける意味情報は著しく異なるため、LLMが時系列データを完全に理解することは困難である。
この課題を軽減するため、本研究はLLM-as-Enhancerパラダイムに従って、LLMのテキスト理解における利点をフル活用し、LLMは時系列のモダリティを補完するためにのみテキストモダリティを符号化する。
このパラダイムに基づいて,マルチモーダル時系列予測のための細粒度粗大化フレームワークFiCoTSを提案する。
具体的には、このフレームワークは、細粒度から粗いスキームにおける3つのレベルによる漸進的相互モーダル相互作用を促進する: まず、トークンレベルのモダリティアライメントモジュールにおいて、ノイズをフィルタリングし、テキストトークンと時系列パッチをアライメントするために動的不均一グラフを構築し、次に、特徴レベルのモダリティインタラクションモジュールにおいて、各時系列変数が関連するテキストコンテキストに接続できるように、グローバルなクロスアテンション機構を導入し、第三に、決定レベルのモダリティ融合モジュールにおいて、2つのモダリティの結果を適応的に融合させるゲートネットワークを設計する。
これら3つのモジュールは相乗的に機能し、2つのモダリティを3つのセマンティックレベルにわたって包括的に相互作用させ、テキスト情報の時間的予測を効果的にサポートする。
7つの実世界のベンチマークに関する大規模な実験は、我々のモデルが最先端のパフォーマンスを達成することを実証している。
コードは公開されます。
関連論文リスト
- Integrating Time Series into LLMs via Multi-layer Steerable Embedding Fusion for Enhanced Forecasting [44.91360223102709]
時系列データ(TS)は様々なアプリケーション領域に分散しており、時系列予測(TSF)は基本的なタスクである。
既存の手法は、TS情報の浅い統合によって本質的に制約される。
我々は,より深い層におけるTS情報の進行的損失を軽減するために,多層ステアブル・エンベディング・フュージョン(MSEF)を提案する。
論文 参考訳(メタデータ) (2025-08-22T03:22:10Z) - Adapting LLMs to Time Series Forecasting via Temporal Heterogeneity Modeling and Semantic Alignment [32.41581846555808]
大規模言語モデル(LLM)は、最近、自然言語処理における印象的な能力を実証した。
時間的アライメントのモデル化と意味的アライメントの強化によりLLMに基づく予測を強化する統合フレームワークであるTALONを提案する。
7つの実世界のベンチマークの実験では、TALONはすべてのデータセットで優れたパフォーマンスを達成している。
論文 参考訳(メタデータ) (2025-08-10T06:06:19Z) - Time-Prompt: Integrated Heterogeneous Prompts for Unlocking LLMs in Time Series Forecasting [13.283980715705693]
時系列予測は、変数間の時間的依存関係を将来の状態推論のためにモデル化することを目的としている。
深層学習に基づく手法は目覚ましい進歩を遂げているが, 長期的な予測では, 依然として準最適性能を示している。
本稿では,時系列予測のための大規模言語モデルを活性化するフレームワークであるTime-Promptを提案する。
論文 参考訳(メタデータ) (2025-06-21T08:22:25Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - TableTime: Reformulating Time Series Classification as Training-Free Table Understanding with Large Language Models [20.077169400691435]
大規模言語モデル (LLM) は多変量時系列分類において有効であることを示した。
LLM は LLM の潜在空間内の時系列の埋め込みを直接コードし、LLM の意味空間と一致させる。
MTSCを表理解タスクとして再編成するテーブルタイムを提案する。
論文 参考訳(メタデータ) (2024-11-24T07:02:32Z) - Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。