論文の概要: Time-Prompt: Integrated Heterogeneous Prompts for Unlocking LLMs in Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2506.17631v3
- Date: Mon, 10 Nov 2025 12:01:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 14:55:59.981512
- Title: Time-Prompt: Integrated Heterogeneous Prompts for Unlocking LLMs in Time Series Forecasting
- Title(参考訳): 時系列予測におけるLDMのアンロックのための統合的不均質プロンプト
- Authors: Zesen Wang, Lijuan Lan, Yonggang Li,
- Abstract要約: 時系列予測は、変数間の時間的依存関係を将来の状態推論のためにモデル化することを目的としている。
深層学習に基づく手法は目覚ましい進歩を遂げているが, 長期的な予測では, 依然として準最適性能を示している。
本稿では,時系列予測のための大規模言語モデルを活性化するフレームワークであるTime-Promptを提案する。
- 参考スコア(独自算出の注目度): 13.283980715705693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting aims to model temporal dependencies among variables for future state inference, holding significant importance and widespread applications in real-world scenarios. Although deep learning-based methods have achieved remarkable progress, they still exhibit suboptimal performance in long-term forecasting. Recent research demonstrates that large language models (LLMs) achieve promising performance in time series forecasting, but this progress is still met with skepticism about whether LLMs are truly useful for this task. To address this, we propose Time-Prompt, a framework for activating LLMs for time series forecasting. Specifically, we first construct a unified prompt paradigm with learnable soft prompts to guide the LLM's behavior and textualized hard prompts to enhance the time series representations. Second, to enhance LLM' comprehensive understanding of the forecasting task, we design a semantic space embedding and cross-modal alignment module to achieve fusion of temporal and textual data. Finally, we efficiently fine-tune the LLM's parameters using time series data. Furthermore, we focus on carbon emissions, aiming to provide a modest contribution to global carbon neutrality. Comprehensive evaluations on 6 public datasets and 3 carbon emission datasets demonstrate that Time-Prompt is a powerful framework for time series forecasting.
- Abstract(参考訳): 時系列予測は、変数間の時間的依存関係を将来の状態推論のためにモデル化することを目的としており、現実世界のシナリオにおいて重要な重要性と広範な応用を保っている。
深層学習に基づく手法は目覚ましい進歩を遂げているが, 長期的な予測では, 依然として準最適性能を示している。
近年の研究では,大規模言語モデル (LLM) が時系列予測において有望な性能を達成できることが示されているが,この進歩は LLM がこの課題に真に有用であるかどうかに懐疑的である。
そこで本研究では,時系列予測のためのLLMを活性化するフレームワークであるTime-Promptを提案する。
具体的には,まず,学習可能なソフトプロンプトを用いた統一的プロンプトパラダイムを構築し,LLMの動作をガイドし,テキスト化されたハードプロンプトを用いて時系列表現を強化する。
第2に,LLMの予測タスクに対する包括的理解を高めるため,時間的およびテキスト的データの融合を実現するために,意味空間の埋め込みと相互アライメントモジュールを設計する。
最後に、時系列データを用いてLLMのパラメータを効率的に微調整する。
さらに、我々は、地球規模の炭素中立性への控えめな貢献を目指して、二酸化炭素の排出に焦点を当てている。
6つの公開データセットと3つの二酸化炭素排出量データセットに関する総合的な評価は、Time-Promptが時系列予測の強力なフレームワークであることを示している。
関連論文リスト
- Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition [48.50019311384125]
我々は、LLMが広範囲のトレーニングを伴わずに時系列予測を行うことのできる、シンプルで柔軟なプロンプトベースの戦略を探求する。
我々は,LLMが正確かつ効果的に予測できるPatchInstructを提案する。
論文 参考訳(メタデータ) (2025-06-15T19:42:58Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Explainable Multi-modal Time Series Prediction with LLM-in-the-Loop [63.34626300024294]
TimeXLはプロトタイプベースの時系列エンコーダを統合するマルチモーダル予測フレームワークである。
より正確な予測と解釈可能な説明を生成する。
4つの実世界のデータセットに対する実証的な評価は、TimeXLがAUCで最大8.9%の改善を達成していることを示している。
論文 参考訳(メタデータ) (2025-03-02T20:40:53Z) - Context information can be more important than reasoning for time series forecasting with a large language model [0.0]
時系列予測のための大規模言語モデル(LLM)の特性について検討する。
発見は、単一のプロンプト法が普遍的に適用できないことを示している。
LLMは、しばしばプロンプトによって記述された手順に従わない。
論文 参考訳(メタデータ) (2025-02-08T21:39:07Z) - Rethinking Time Series Forecasting with LLMs via Nearest Neighbor Contrastive Learning [1.7892194562398749]
本稿では, NNCL-TLLM: Nearest Neighbor Contrastive Learning for Time Series forecasting via Large Language Modelsを提案する。
まず、時系列互換テキストプロトタイプを作成し、各テキストプロトタイプは、その近傍に単語トークンを埋め込んだり、時系列の特徴を表現したりする。
次に、LLMの層正規化と位置埋め込みを微調整し、他の層をそのままに保ち、トレーニング可能なパラメータを減らし、計算コストを削減した。
論文 参考訳(メタデータ) (2024-12-06T06:32:47Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - Time Series Forecasting with LLMs: Understanding and Enhancing Model Capabilities [46.02234423159257]
大規模言語モデル(LLM)は多くの分野に適用され、近年急速に発展してきた。
近年の研究では、大規模な言語モデルを、さらなる微調整を行なわずに、アンフェロショット時系列推論として扱っている。
本研究は,LLMが周期性に欠けるデータセットにおいて,明確なパターンや傾向を持つ時系列予測において良好に機能することを示す。
論文 参考訳(メタデータ) (2024-02-16T17:15:28Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。