論文の概要: Exploring the Effectiveness and Interpretability of Texts in LLM-based Time Series Models
- arxiv url: http://arxiv.org/abs/2504.08808v1
- Date: Wed, 09 Apr 2025 02:48:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 05:47:39.492633
- Title: Exploring the Effectiveness and Interpretability of Texts in LLM-based Time Series Models
- Title(参考訳): LLMに基づく時系列モデルにおけるテキストの有効性と解釈可能性の検討
- Authors: Zhengke Sun, Hangwei Qian, Ivor Tsang,
- Abstract要約: 大規模言語モデル(LLM)は、トレーニング済みの言語モデルをバックボーンとして活用し、時系列予測タスクに適用されている。
本研究は,このような文章の具体化の実際の有効性と解釈可能性について検討する。
- 参考スコア(独自算出の注目度): 5.2980803808373516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have been applied to time series forecasting tasks, leveraging pre-trained language models as the backbone and incorporating textual data to purportedly enhance the comprehensive capabilities of LLMs for time series. However, are these texts really helpful for interpretation? This study seeks to investigate the actual efficacy and interpretability of such textual incorporations. Through a series of empirical experiments on textual prompts and textual prototypes, our findings reveal that the misalignment between two modalities exists, and the textual information does not significantly improve time series forecasting performance in many cases. Furthermore, visualization analysis indicates that the textual representations learned by existing frameworks lack sufficient interpretability when applied to time series data. We further propose a novel metric named Semantic Matching Index (SMI) to better evaluate the matching degree between time series and texts during our post hoc interpretability investigation. Our analysis reveals the misalignment and limited interpretability of texts in current time-series LLMs, and we hope this study can raise awareness of the interpretability of texts for time series. The code is available at https://github.com/zachysun/TS-Lang-Exp.
- Abstract(参考訳): 大規模言語モデル (LLM) は時系列予測タスクに適用され、事前訓練された言語モデルをバックボーンとして活用し、時系列のLLMの包括的能力を高めるためにテキストデータを活用する。
しかし、これらのテキストは本当に解釈に役立ちますか?
本研究は,このような文章の具体化の実際の有効性と解釈可能性について検討する。
本研究は,テキストプロンプトとテキストプロトタイプの実証実験を通じて,2つのモード間のミスアライメントが存在し,テキスト情報は時系列予測性能を著しく向上させるものではないことを明らかにした。
さらに、可視化分析により、既存のフレームワークで学習したテキスト表現は、時系列データに適用した場合に十分な解釈性が欠如していることが示されている。
さらに,ポストホック解釈可能性調査において,時系列とテキストの一致度をよりよく評価するためのセマンティックマッチング指標(SMI)を提案する。
本分析は,現在の時系列LLMにおけるテキストの不一致と限定的な解釈可能性を明らかにし,時系列におけるテキストの解釈可能性に対する認識を高めることを期待する。
コードはhttps://github.com/zachysun/TS-Lang-Expで公開されている。
関連論文リスト
- Enhancing Time Series Forecasting via Multi-Level Text Alignment with LLMs [6.612196783595362]
大規模言語モデル(LLM)を用いた時系列予測のための多段階テキストアライメントフレームワークを提案する。
本手法は,時系列をトレンド,季節,残留成分に分解し,コンポーネント固有のテキスト表現に再プログラムする。
複数のデータセットに対する実験により,提案手法は高い解釈性を提供しながら,最先端のモデルよりも精度が高いことを示した。
論文 参考訳(メタデータ) (2025-04-10T01:02:37Z) - Chat-TS: Enhancing Multi-Modal Reasoning Over Time-Series and Natural Language Data [22.274663165215237]
時系列分析は、医療、金融、交通、エネルギーなど幅広い分野において重要である。
現在の時系列モデルは、時系列とテキストコンテンツの両方を含む推論を行う能力に制限がある。
Chat-TSは時系列トークンをLLMの語彙に統合し、両方のモダリティに対する推論能力を高める。
論文 参考訳(メタデータ) (2025-03-13T21:05:11Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(英語版) (TaTS) は時系列の補助変数であると考えている。
TaTSは、既存の数値のみの時系列モデルにプラグインすることができ、ペア化されたテキストで時系列データを効率的に処理することができる。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - Text2Freq: Learning Series Patterns from Text via Frequency Domain [8.922661807801227]
Text2Freqは、周波数領域を介してテキストと時系列データを統合したモダリティモデルである。
実物価格と合成テキストのペアデータセットによる実験により,Text2Freqが最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2024-11-01T16:11:02Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - Understanding the Role of Textual Prompts in LLM for Time Series Forecasting: an Adapter View [21.710722062737577]
大規模言語モデル(LLM)の急成長する領域では、時系列予測にLLMを適用することへの関心が高まっている。
本研究の目的は,LLMへのテキストプロンプトの統合が時系列の予測精度を効果的に向上させる方法と理由を理解することである。
論文 参考訳(メタデータ) (2023-11-24T16:32:47Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。