論文の概要: From Values to Tokens: An LLM-Driven Framework for Context-aware Time Series Forecasting via Symbolic Discretization
- arxiv url: http://arxiv.org/abs/2508.09191v1
- Date: Fri, 08 Aug 2025 03:51:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.597185
- Title: From Values to Tokens: An LLM-Driven Framework for Context-aware Time Series Forecasting via Symbolic Discretization
- Title(参考訳): 価値からトークンへ - 象徴的離散化によるコンテキスト認識時系列予測のためのLLM駆動フレームワーク
- Authors: Xiaoyu Tao, Shilong Zhang, Mingyue Cheng, Daoyu Wang, Tingyue Pan, Bokai Pan, Changqing Zhang, Shijin Wang,
- Abstract要約: 時系列予測は、エネルギー、医療、金融など、幅広い重要な応用において意思決定を支援する上で重要な役割を担っている。
我々は,言語に基づく記号表現を文脈対応時系列予測のための統合仲介手段として活用する,LLM駆動のフレームワークであるTokenCastを提案する。
具体的には、TokenCastは離散トークン化器を使用して、連続する数値列を時間トークンに変換し、言語ベースの入力と構造的アライメントを可能にする。
- 参考スコア(独自算出の注目度): 21.8427780153806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting plays a vital role in supporting decision-making across a wide range of critical applications, including energy, healthcare, and finance. Despite recent advances, forecasting accuracy remains limited due to the challenge of integrating historical numerical sequences with contextual features, which often comprise unstructured textual data. To address this challenge, we propose TokenCast, an LLM-driven framework that leverages language-based symbolic representations as a unified intermediary for context-aware time series forecasting. Specifically, TokenCast employs a discrete tokenizer to transform continuous numerical sequences into temporal tokens, enabling structural alignment with language-based inputs. To bridge the semantic gap between modalities, both temporal and contextual tokens are embedded into a shared representation space via a pre-trained large language model (LLM), further optimized with autoregressive generative objectives. Building upon this unified semantic space, the aligned LLM is subsequently fine-tuned in a supervised manner to predict future temporal tokens, which are then decoded back into the original numerical space. Extensive experiments on diverse real-world datasets enriched with contextual features demonstrate the effectiveness and generalizability of TokenCast.
- Abstract(参考訳): 時系列予測は、エネルギー、医療、金融など、幅広い重要な応用において意思決定を支援する上で重要な役割を担っている。
近年の進歩にもかかわらず、歴史的数値列を文脈的特徴と統合することの難しさから、予測精度は依然として限られている。
この課題に対処するために,言語に基づく記号表現を文脈対応時系列予測の統一仲介手段として活用するLLM駆動フレームワークであるTokenCastを提案する。
具体的には、TokenCastは離散トークン化器を使用して、連続する数値列を時間トークンに変換し、言語ベースの入力と構造的アライメントを可能にする。
モーダル性間の意味的ギャップを埋めるために、時間的および文脈的トークンは、事前訓練された大言語モデル(LLM)を介して共有表現空間に埋め込まれ、さらに自己回帰的生成目的によって最適化される。
この統一的な意味空間を基盤として、整列 LLM は後に教師付き方法で微調整され、将来の時間トークンを予測し、元の数値空間に復号する。
コンテキスト特徴に富んだ多種多様な実世界のデータセットに関する大規模な実験は、TokenCastの有効性と一般化性を示している。
関連論文リスト
- Time-Prompt: Integrated Heterogeneous Prompts for Unlocking LLMs in Time Series Forecasting [4.881217428928315]
時系列予測は、変数間の時間的依存関係を将来の状態推論のためにモデル化することを目的としている。
近年の研究では,大規模言語モデル (LLM) が時系列予測において有望な性能を達成することが示されている。
マルチプロンプト情報とモーダル間セマンティックアライメントを組み合わせたLLMベースの時系列予測フレームワークLLM-Promptを提案する。
論文 参考訳(メタデータ) (2025-06-21T08:22:25Z) - Enhancing Time Series Forecasting via Multi-Level Text Alignment with LLMs [6.612196783595362]
大規模言語モデル(LLM)を用いた時系列予測のための多段階テキストアライメントフレームワークを提案する。
本手法は,時系列をトレンド,季節,残留成分に分解し,コンポーネント固有のテキスト表現に再プログラムする。
複数のデータセットに対する実験により,提案手法は高い解釈性を提供しながら,最先端のモデルよりも精度が高いことを示した。
論文 参考訳(メタデータ) (2025-04-10T01:02:37Z) - TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Rethinking Time Series Forecasting with LLMs via Nearest Neighbor Contrastive Learning [1.7892194562398749]
本稿では, NNCL-TLLM: Nearest Neighbor Contrastive Learning for Time Series forecasting via Large Language Modelsを提案する。
まず、時系列互換テキストプロトタイプを作成し、各テキストプロトタイプは、その近傍に単語トークンを埋め込んだり、時系列の特徴を表現したりする。
次に、LLMの層正規化と位置埋め込みを微調整し、他の層をそのままに保ち、トレーニング可能なパラメータを減らし、計算コストを削減した。
論文 参考訳(メタデータ) (2024-12-06T06:32:47Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。