論文の概要: Enhancing Time Series Forecasting via Multi-Level Text Alignment with LLMs
- arxiv url: http://arxiv.org/abs/2504.07360v1
- Date: Thu, 10 Apr 2025 01:02:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:23:44.912364
- Title: Enhancing Time Series Forecasting via Multi-Level Text Alignment with LLMs
- Title(参考訳): LLMを用いたマルチレベルテキストアライメントによる時系列予測の高速化
- Authors: Taibiao Zhao, Xiaobing Chen, Mingxuan Sun,
- Abstract要約: 大規模言語モデル(LLM)を用いた時系列予測のための多段階テキストアライメントフレームワークを提案する。
本手法は,時系列をトレンド,季節,残留成分に分解し,コンポーネント固有のテキスト表現に再プログラムする。
複数のデータセットに対する実験により,提案手法は高い解釈性を提供しながら,最先端のモデルよりも精度が高いことを示した。
- 参考スコア(独自算出の注目度): 6.612196783595362
- License:
- Abstract: The adaptation of large language models (LLMs) to time series forecasting poses unique challenges, as time series data is continuous in nature, while LLMs operate on discrete tokens. Despite the success of LLMs in natural language processing (NLP) and other structured domains, aligning time series data with language-based representations while maintaining both predictive accuracy and interpretability remains a significant hurdle. Existing methods have attempted to reprogram time series data into text-based forms, but these often fall short in delivering meaningful, interpretable results. In this paper, we propose a multi-level text alignment framework for time series forecasting using LLMs that not only improves prediction accuracy but also enhances the interpretability of time series representations. Our method decomposes time series into trend, seasonal, and residual components, which are then reprogrammed into component-specific text representations. We introduce a multi-level alignment mechanism, where component-specific embeddings are aligned with pre-trained word tokens, enabling more interpretable forecasts. Experiments on multiple datasets demonstrate that our method outperforms state-of-the-art models in accuracy while providing good interpretability.
- Abstract(参考訳): 大規模言語モデル(LLM)の時系列予測への適応は、時系列データが本質的に連続的であるのに対して、LLMは離散トークンで運用されているのに対して、ユニークな課題をもたらす。
自然言語処理(NLP)やその他の構造化ドメインにおけるLLMの成功にもかかわらず、予測精度と解釈可能性の両方を維持しながら、時系列データを言語ベースの表現と整列させることは大きなハードルとなっている。
既存の手法は時系列データをテキストベースの形式に書き換えようとするが、意味のある解釈可能な結果をもたらすには不十分であることが多い。
本稿では,LLMを用いた時系列予測のための多段階テキストアライメントフレームワークを提案する。
本手法は時系列をトレンド,季節,残留成分に分解し,コンポーネント固有のテキスト表現に再プログラムする。
コンポーネント固有の埋め込みが事前訓練されたワードトークンと整合し、より解釈可能な予測を可能にするマルチレベルアライメント機構を導入する。
複数のデータセットに対する実験により,提案手法は高い解釈性を提供しながら,最先端のモデルよりも精度が高いことを示した。
関連論文リスト
- TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(英語版) (TaTS) は時系列の補助変数であると考えている。
TaTSは、既存の数値のみの時系列モデルにプラグインすることができ、ペア化されたテキストで時系列データを効率的に処理することができる。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - Time Series Language Model for Descriptive Caption Generation [11.796431549951055]
本稿では,時系列キャプションに特化して設計された新しい時系列言語モデルTSLMを紹介する。
TSLMはエンコーダ・デコーダモデルとして機能し、テキストプロンプトと時系列データ表現の両方を活用する。
TSLMは、複数のデータモダリティから既存の最先端アプローチよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2025-01-03T14:34:30Z) - Rethinking Time Series Forecasting with LLMs via Nearest Neighbor Contrastive Learning [1.7892194562398749]
本稿では, NNCL-TLLM: Nearest Neighbor Contrastive Learning for Time Series forecasting via Large Language Modelsを提案する。
まず、時系列互換テキストプロトタイプを作成し、各テキストプロトタイプは、その近傍に単語トークンを埋め込んだり、時系列の特徴を表現したりする。
次に、LLMの層正規化と位置埋め込みを微調整し、他の層をそのままに保ち、トレーニング可能なパラメータを減らし、計算コストを削減した。
論文 参考訳(メタデータ) (2024-12-06T06:32:47Z) - Metadata Matters for Time Series: Informative Forecasting with Transformers [70.38241681764738]
時系列予測のためのMetaTST(Metadata-informed Time Series Transformer)を提案する。
メタデータの非構造化の性質に取り組むため、MetaTSTは、事前に設計されたテンプレートによってそれらを自然言語に形式化する。
Transformerエンコーダは、メタデータ情報によるシーケンス表現を拡張するシリーズトークンとメタデータトークンの通信に使用される。
論文 参考訳(メタデータ) (2024-10-04T11:37:55Z) - An Evaluation of Standard Statistical Models and LLMs on Time Series Forecasting [16.583730806230644]
本研究では,大言語モデルが時系列予測の文脈で直面する重要な課題を明らかにする。
実験結果から、大規模な言語モデルは特定のデータセットのゼロショット予測において良好に機能するが、様々な時系列データや従来の信号に直面すると、予測精度は顕著に低下することが示された。
論文 参考訳(メタデータ) (2024-08-09T05:13:03Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Large Language Models Are Zero-Shot Time Series Forecasters [48.73953666153385]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。