論文の概要: DualSG: A Dual-Stream Explicit Semantic-Guided Multivariate Time Series Forecasting Framework
- arxiv url: http://arxiv.org/abs/2507.21830v2
- Date: Wed, 30 Jul 2025 07:57:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 11:57:45.859452
- Title: DualSG: A Dual-Stream Explicit Semantic-Guided Multivariate Time Series Forecasting Framework
- Title(参考訳): DualSG:Dual-Stream Explicit Semantic-Guided Multivariate Time Series Forecasting Framework
- Authors: Kuiye Ding, Fanda Fan, Yao Wang, Ruijie jian, Xiaorui Wang, Luqi Gong, Yishan Jiang, Chunjie Luo an Jianfeng Zhan,
- Abstract要約: 明示的なセマンティックガイダンスを提供するデュアルストリームフレームワークであるDualSGを提案する。
本稿では、自然言語のトレンドパターンを要約した明示的なプロンプトフォーマットである時系列キャプションを紹介する。
さまざまなドメインの実際のデータセットに関する実験によると、DualSGは15の最先端ベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 7.715099984705006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariate Time Series Forecasting plays a key role in many applications. Recent works have explored using Large Language Models for MTSF to take advantage of their reasoning abilities. However, many methods treat LLMs as end-to-end forecasters, which often leads to a loss of numerical precision and forces LLMs to handle patterns beyond their intended design. Alternatively, methods that attempt to align textual and time series modalities within latent space frequently encounter alignment difficulty. In this paper, we propose to treat LLMs not as standalone forecasters, but as semantic guidance modules within a dual-stream framework. We propose DualSG, a dual-stream framework that provides explicit semantic guidance, where LLMs act as Semantic Guides to refine rather than replace traditional predictions. As part of DualSG, we introduce Time Series Caption, an explicit prompt format that summarizes trend patterns in natural language and provides interpretable context for LLMs, rather than relying on implicit alignment between text and time series in the latent space. We also design a caption-guided fusion module that explicitly models inter-variable relationships while reducing noise and computation. Experiments on real-world datasets from diverse domains show that DualSG consistently outperforms 15 state-of-the-art baselines, demonstrating the value of explicitly combining numerical forecasting with semantic guidance.
- Abstract(参考訳): 多変量時系列予測は多くのアプリケーションにおいて重要な役割を果たす。
最近の研究は、MTSFの推論能力を活用するために、Large Language Modelsを用いて検討されている。
しかし、LSMをエンドツーエンドの予測器として扱う方法が多く、数値的な精度が失われ、LSMは意図した設計以上のパターンを処理せざるを得なくなる。
あるいは、テキストと時系列のモダリティを潜在空間内で整列しようとする手法は、しばしばアライメント困難に遭遇する。
本稿では,LLMをスタンドアロンの予測言語としてではなく,マルチストリームフレームワーク内での意味的ガイダンスモジュールとして扱うことを提案する。
我々は,LLMが従来の予測を置き換えるのではなく,セマンティックガイドとして機能する,明示的なセマンティックガイダンスを提供するデュアルストリームフレームワークであるDualSGを提案する。
DualSGの一部として,テキストと時系列間の暗黙的なアライメントに頼るのではなく,自然言語でトレンドパターンを要約し,LLMの解釈可能なコンテキストを提供する明示的なプロンプトフォーマットであるTime Series Captionを導入する。
また、ノイズや計算量を低減しつつ、変数間の関係を明示的にモデル化するキャプション誘導融合モジュールを設計する。
さまざまなドメインから得られた実世界のデータセットの実験により、DualSGは15の最先端のベースラインを一貫して上回り、数値予測とセマンティックガイダンスを明示的に組み合わせた価値を示している。
関連論文リスト
- LLM-Prompt: Integrated Heterogeneous Prompts for Unlocking LLMs in Time Series Forecasting [4.881217428928315]
時系列予測は、変数間の時間的依存関係を将来の状態推論のためにモデル化することを目的としている。
近年の研究では,大規模言語モデル (LLM) が時系列予測において有望な性能を達成することが示されている。
マルチプロンプト情報とモーダル間セマンティックアライメントを組み合わせたLLMベースの時系列予測フレームワークLLM-Promptを提案する。
論文 参考訳(メタデータ) (2025-06-21T08:22:25Z) - Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - Enhancing Time Series Forecasting via Multi-Level Text Alignment with LLMs [6.612196783595362]
大規模言語モデル(LLM)を用いた時系列予測のための多段階テキストアライメントフレームワークを提案する。
本手法は,時系列をトレンド,季節,残留成分に分解し,コンポーネント固有のテキスト表現に再プログラムする。
複数のデータセットに対する実験により,提案手法は高い解釈性を提供しながら,最先端のモデルよりも精度が高いことを示した。
論文 参考訳(メタデータ) (2025-04-10T01:02:37Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - TableTime: Reformulating Time Series Classification as Training-Free Table Understanding with Large Language Models [14.880203496664963]
大規模言語モデル (LLM) は多変量時系列分類において有効であることを示した。
LLM は LLM の潜在空間内の時系列の埋め込みを直接コードし、LLM の意味空間と一致させる。
MTSCを表理解タスクとして再編成するテーブルタイムを提案する。
論文 参考訳(メタデータ) (2024-11-24T07:02:32Z) - Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。