論文の概要: Chat-TS: Enhancing Multi-Modal Reasoning Over Time-Series and Natural Language Data
- arxiv url: http://arxiv.org/abs/2503.10883v1
- Date: Thu, 13 Mar 2025 21:05:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:04:40.477426
- Title: Chat-TS: Enhancing Multi-Modal Reasoning Over Time-Series and Natural Language Data
- Title(参考訳): Chat-TS: 時系列と自然言語データに対するマルチモーダル推論の強化
- Authors: Paul Quinlan, Qingguo Li, Xiaodan Zhu,
- Abstract要約: 時系列分析は、医療、金融、交通、エネルギーなど幅広い分野において重要である。
現在の時系列モデルは、時系列とテキストコンテンツの両方を含む推論を行う能力に制限がある。
Chat-TSは時系列トークンをLLMの語彙に統合し、両方のモダリティに対する推論能力を高める。
- 参考スコア(独自算出の注目度): 22.274663165215237
- License:
- Abstract: Time-series analysis is critical for a wide range of fields such as healthcare, finance, transportation, and energy, among many others. The practical applications often involve analyzing time-series data alongside contextual information in the form of natural language to support informed decisions. However, current time-series models are limited in their ability to perform reasoning that involves both time-series and their textual content. In this work, we address this gap by introducing \textit{Chat-TS}, a large language model (LLM) based framework, designed to support reasoning over time series and textual data. Unlike traditional models, Chat-TS integrates time-series tokens into LLMs' vocabulary, enhancing its reasoning ability over both modalities without compromising the core natural language capabilities, enabling practical analysis and reasoning across modalities. To support learning and evaluation in this setup, we contribute new datasets: the \textit{TS Instruct Training Dataset} which pairs diverse time-series data with relevant text instructions and responses for instruction tuning, the \textit{TS Instruct Question and Answer (QA) Gold Dataset} which provides multiple-choice questions designed to evaluate multimodal reasoning, and a \textit{TS Instruct Quantitative Probing Set} which contains a small subset of the TS Instruct QA tasks alongside math and decision-making questions for LLM evaluation. We designed a training strategy to preserve the inherent reasoning capabilities of LLMs while augmenting them for time-series reasoning. Experiments show that Chat-TS achieves state-of-the-art performance in multi-modal reasoning tasks by maintaining strong natural language proficiency while improving time-series reasoning. ~\footnote{To ensure replicability and facilitate future research, all models, datasets, and code will be available at [\texttt{Github-URL}].}
- Abstract(参考訳): 時系列分析は、医療、金融、交通、エネルギーなど幅広い分野において重要である。
実践的な応用はしばしば、情報的決定を支援するために、自然言語の形で時系列データと文脈情報とを併用して分析する。
しかし、現在の時系列モデルは、時系列とテキストコンテンツの両方を含む推論を行う能力に制限がある。
本研究では,このギャップを,時系列やテキストデータによる推論を支援するために設計された,LLMベースの大規模言語モデルである‘textit{Chat-TS} を導入することで解決する。
従来のモデルとは異なり、Chat-TSは時系列トークンをLLMの語彙に統合し、中核となる自然言語能力を損なうことなく、両方のモダリティに対する推論能力を高め、実用的な分析とモダリティ間の推論を可能にしている。
本セットアップにおける学習と評価を支援するため, 各種時系列データと関連するテキスト命令とインストラクションチューニングのための応答とを組み合わせた<textit{TS Instruct Training Dataset}, マルチモーダル推論を評価するために設計された複数項目の質問を提供する<textit{TS Instruct Question and Answer (QA) Gold Dataset}, TSの小さなサブセットを含む<textit{TS Instruct Quantitative Probing Set}, 数学およびLLM評価のための意思決定質問と並行してQAタスクを実行する。
我々は,LLMの固有推論能力を維持しつつ,時系列推論のために強化する訓練戦略を考案した。
実験により,Chat-TSは時系列推論を改善しつつ,高い自然言語能力を維持することで,マルチモーダル推論タスクにおける最先端性能を実現することが示された。
複製性を確保し、将来の調査を促進するため、すべてのモデル、データセット、コードは [\texttt{Github-URL}]で利用可能になります。
※
関連論文リスト
- Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(英語版) (TaTS) は時系列の補助変数であると考えている。
TaTSは、既存の数値のみの時系列モデルにプラグインすることができ、ペア化されたテキストで時系列データを効率的に処理することができる。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - TempoGPT: Enhancing Time Series Reasoning via Quantizing Embedding [13.996105878417204]
本稿では,マルチモーダル時系列データ構築手法とマルチモーダル時系列言語モデル(TLM, TempoGPT)を提案する。
ホワイトボックスシステム内の変数-システム関係を解析することにより,複雑な推論タスクのためのマルチモーダルデータを構築する。
広範な実験により、TempoGPTは時間的情報を正確に知覚し、結論を論理的に推論し、構築された複雑な時系列推論タスクにおける最先端の処理を達成することが示されている。
論文 参考訳(メタデータ) (2025-01-13T13:47:05Z) - ChatTime: A Unified Multimodal Time Series Foundation Model Bridging Numerical and Textual Data [26.300515935897415]
ChatTimeは時系列とテキスト処理のための統合されたフレームワークである。
アウトオブボックスのマルチモーダル時系列基盤モデルとして、ChatTimeはゼロショット予測機能を提供する。
複数のタスクやシナリオでChatTimeの優れたパフォーマンスを検証するために、一連の実験を設計する。
論文 参考訳(メタデータ) (2024-12-16T02:04:06Z) - ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning [10.854285913078257]
本稿では,時系列解析用に設計された新しいMLLMであるChatTSを紹介する。
ChatTSは、視覚MLLMが画像を処理する方法と同様、時系列をモダリティとして扱う。
Time Series Evol-Instructは様々な時系列Q&Aを生成し、モデルの推論能力を高めます。
論文 参考訳(メタデータ) (2024-12-04T08:06:15Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - Evaluating Large Language Models on Time Series Feature Understanding: A Comprehensive Taxonomy and Benchmark [13.490168087823992]
大規模言語モデル(LLM)は、自動時系列分析とレポートの可能性を秘めている。
本稿では時系列データに固有の様々な特徴を記述した重要なフレームワークである時系列特徴の包括的分類法を紹介する。
このデータセットは、コンパイル時系列におけるLCMの熟練度を評価するための確かな基盤として機能する。
論文 参考訳(メタデータ) (2024-04-25T12:24:37Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - MuSR: Testing the Limits of Chain-of-thought with Multistep Soft Reasoning [63.80739044622555]
自然言語ナラティブで指定されたソフト推論タスクの言語モデルを評価するデータセットである MuSR を紹介する。
このデータセットには2つの重要な特徴がある。まず、ニューロシンボリック合成-自然生成アルゴリズムによって生成される。
第二に、私たちのデータセットインスタンスは、実世界の推論の領域に対応する無料のテキスト物語です。
論文 参考訳(メタデータ) (2023-10-24T17:59:20Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。