論文の概要: TimeSense:Making Large Language Models Proficient in Time-Series Analysis
- arxiv url: http://arxiv.org/abs/2511.06344v1
- Date: Sun, 09 Nov 2025 12:00:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.894335
- Title: TimeSense:Making Large Language Models Proficient in Time-Series Analysis
- Title(参考訳): 時系列分析に熟練した大規模言語モデルの構築
- Authors: Zhirui Zhang, Changhua Pei, Tianyi Gao, Zhe Xie, Yibo Hao, Zhaoyang Yu, Longlong Xu, Tong Xiao, Jing Han, Dan Pei,
- Abstract要約: 時系列領域では、テキストと時間データを組み合わせて大規模な言語モデルの推論能力を活用する作業が増えている。
テキスト推論と時間的感覚のバランスをとることで,LLMを時系列解析に熟練させるフレームワークであるTimeSenseを提案する。
TimeSenseは複数のタスクにまたがる最先端のパフォーマンスを実現し、特に複雑な多次元時系列推論タスクにおいて既存のメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 26.44226032396234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the time-series domain, an increasing number of works combine text with temporal data to leverage the reasoning capabilities of large language models (LLMs) for various downstream time-series understanding tasks. This enables a single model to flexibly perform tasks that previously required specialized models for each domain. However, these methods typically rely on text labels for supervision during training, biasing the model toward textual cues while potentially neglecting the full temporal features. Such a bias can lead to outputs that contradict the underlying time-series context. To address this issue, we construct the EvalTS benchmark, comprising 10 tasks across three difficulty levels, from fundamental temporal pattern recognition to complex real-world reasoning, to evaluate models under more challenging and realistic scenarios. We also propose TimeSense, a multimodal framework that makes LLMs proficient in time-series analysis by balancing textual reasoning with a preserved temporal sense. TimeSense incorporates a Temporal Sense module that reconstructs the input time-series within the model's context, ensuring that textual reasoning is grounded in the time-series dynamics. Moreover, to enhance spatial understanding of time-series data, we explicitly incorporate coordinate-based positional embeddings, which provide each time point with spatial context and enable the model to capture structural dependencies more effectively. Experimental results demonstrate that TimeSense achieves state-of-the-art performance across multiple tasks, and it particularly outperforms existing methods on complex multi-dimensional time-series reasoning tasks.
- Abstract(参考訳): 時系列領域では、テキストと時間データを組み合わせて、さまざまなダウンストリーム時系列理解タスクのための大規模言語モデル(LLM)の推論能力を活用する作業が増えている。
これにより、単一のモデルが、これまで各ドメインに特別なモデルを必要としていたタスクを柔軟に実行できるようになる。
しかしながら、これらの手法は通常、トレーニング中にモデルをテキストキューに偏りながら、完全な時間的特徴を無視する、テキストラベルに頼っている。
このようなバイアスは、根底にある時系列コンテキストと矛盾する出力につながる可能性がある。
この問題に対処するため、EvalTSベンチマークを構築し、基本的な時間的パターン認識から複雑な実世界の推論まで、3つの難易度レベルにわたる10のタスクで構成され、より困難で現実的なシナリオ下でモデルを評価する。
また,テキスト推論と時間的感覚のバランスをとることで,LCMを時系列解析に熟練させるマルチモーダルフレームワークTimeSenseを提案する。
TimeSenseにはTemporal Senseモジュールが組み込まれており、入力時系列をモデルコンテキスト内に再構築することで、テキスト推論が時系列のダイナミクスに根ざしていることを保証する。
さらに,時系列データの空間的理解を高めるため,座標に基づく位置埋め込みを明示的に取り入れた。
実験の結果,TimeSenseは複数のタスクにまたがる最先端のパフォーマンスを実現し,複雑な多次元時系列推論タスクにおいて,既存の手法よりも優れていることがわかった。
関連論文リスト
- Augmenting LLMs for General Time Series Understanding and Prediction [2.426309874608745]
時系列データは、医療、金融、環境科学を含む多くの重要な領域における意思決定に不可欠である。
TsLLM(Time Series-augmented LLM)を200万回以上のインターリーブされた時系列とテキストサンプルの大規模なコーパスでトレーニングする。
このトレーニングにより、TsLLMは言語理解と新たに獲得した時間的推論機能の両方を活用することができる。
論文 参考訳(メタデータ) (2025-10-01T16:54:46Z) - MTBench: A Multimodal Time Series Benchmark for Temporal Reasoning and Question Answering [21.064096256892686]
マルチモーダル時系列データセットは、クロスモーダル推論と複雑な質問応答の評価において不足している。
時系列およびテキスト理解における大規模言語モデル(LLM)を評価するベンチマークであるMTBench(Multimodal Time Series Benchmark)を紹介する。
MTbench 上での最先端 LLM の評価を行い,ニュース物語と時間パターンの複雑な関係をモデル化する上での有効性を分析した。
論文 参考訳(メタデータ) (2025-03-21T05:04:53Z) - Chat-TS: Enhancing Multi-Modal Reasoning Over Time-Series and Natural Language Data [22.274663165215237]
時系列分析は、医療、金融、交通、エネルギーなど幅広い分野において重要である。
現在の時系列モデルは、時系列とテキストコンテンツの両方を含む推論を行う能力に制限がある。
Chat-TSは時系列トークンをLLMの語彙に統合し、両方のモダリティに対する推論能力を高める。
論文 参考訳(メタデータ) (2025-03-13T21:05:11Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - Time-MQA: Time Series Multi-Task Question Answering with Context Enhancement [55.2439260314328]
Time Series Multi-Task Question Answering (Time-MQA)は、複数の時系列タスクにわたる自然言語クエリを可能にする統合フレームワークである。
Time-MQAの中心はTSQAデータセットである。
論文 参考訳(メタデータ) (2025-02-26T13:47:13Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(TaTS)は、既存の数値のみの時系列モデルにプラグインできる。
TaTSはモデルアーキテクチャを変更することなく予測性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - TempoGPT: Enhancing Time Series Reasoning via Quantizing Embedding [13.996105878417204]
本稿では,マルチモーダル時系列データ構築手法とマルチモーダル時系列言語モデル(TLM, TempoGPT)を提案する。
ホワイトボックスシステム内の変数-システム関係を解析することにより,複雑な推論タスクのためのマルチモーダルデータを構築する。
広範な実験により、TempoGPTは時間的情報を正確に知覚し、結論を論理的に推論し、構築された複雑な時系列推論タスクにおける最先端の処理を達成することが示されている。
論文 参考訳(メタデータ) (2025-01-13T13:47:05Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。