論文の概要: Time Series Reasoning via Process-Verifiable Thinking Data Synthesis and Scheduling for Tailored LLM Reasoning
- arxiv url: http://arxiv.org/abs/2602.07830v1
- Date: Sun, 08 Feb 2026 05:42:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.822212
- Title: Time Series Reasoning via Process-Verifiable Thinking Data Synthesis and Scheduling for Tailored LLM Reasoning
- Title(参考訳): プロセス検証可能なLLM推論のための時系列データ合成とスケジューリングによる時系列推論
- Authors: Jiahui Zhou, Dan Li, Boxin Li, Xiao Zhang, Erli Meng, Lin Li, Zhuomin Chen, Jian Lou, See-Kiong Ng,
- Abstract要約: データ合成、データスケジューリング、RLトレーニングを通じて、時系列推論のための大規模言語モデルをカスタマイズするフレームワークであるVeriTimeを紹介した。
大規模な実験により、VeriTime は様々な時系列推論タスクにおける LLM のパフォーマンスを大幅に向上させることが示された。
- 参考スコア(独自算出の注目度): 46.72047865932384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series is a pervasive data type across various application domains, rendering the reasonable solving of diverse time series tasks a long-standing goal. Recent advances in large language models (LLMs), especially their reasoning abilities unlocked through reinforcement learning (RL), have opened new opportunities for tackling tasks with long Chain-of-Thought (CoT) reasoning. However, leveraging LLM reasoning for time series remains in its infancy, hindered by the absence of carefully curated time series CoT data for training, limited data efficiency caused by underexplored data scheduling, and the lack of RL algorithms tailored for exploiting such time series CoT data. In this paper, we introduce VeriTime, a framework that tailors LLMs for time series reasoning through data synthesis, data scheduling, and RL training. First, we propose a data synthesis pipeline that constructs a TS-text multimodal dataset with process-verifiable annotations. Second, we design a data scheduling mechanism that arranges training samples according to a principled hierarchy of difficulty and task taxonomy. Third, we develop a two-stage reinforcement finetuning featuring fine-grained, multi-objective rewards that leverage verifiable process-level CoT data. Extensive experiments show that VeriTime substantially boosts LLM performance across diverse time series reasoning tasks. Notably, it enables compact 3B, 4B models to achieve reasoning capabilities on par with or exceeding those of larger proprietary LLMs.
- Abstract(参考訳): 時系列は、様々なアプリケーションドメインにまたがる広範なデータ型であり、様々な時系列タスクの合理的な解決を長年の目標としています。
大規模言語モデル(LLM)の最近の進歩、特に強化学習(RL)によって解き放たれた推論能力は、長いチェーン・オブ・ソート(CoT)推論でタスクに取り組む新しい機会を開いた。
しかし、LLM推論を時系列に活用することは、訓練用に慎重にキュレートされた時系列CoTデータがないこと、探索されていないデータスケジューリングによるデータ効率の制限、そしてそのような時系列CoTデータを利用するのに適したRLアルゴリズムの欠如など、まだ初期段階にある。
本稿では,データ合成,データスケジューリング,およびRLトレーニングを通じて時系列推論のためのLLMを調整したフレームワークであるVeriTimeを紹介する。
まず、プロセス検証可能なアノテーションを用いたTS-text Multimodal データセットを構築するデータ合成パイプラインを提案する。
第2に,難易度とタスク分類の原則的階層に従って,トレーニングサンプルをアレンジするデータスケジューリング機構を設計する。
第3に、検証可能なプロセスレベルのCoTデータを活用する細粒度多目的報酬を特徴とする2段階強化ファインタニングを開発する。
大規模な実験により、VeriTime は様々な時系列推論タスクにおける LLM のパフォーマンスを大幅に向上させることが示された。
特に、コンパクトな3B、4Bモデルでは、より大きなプロプライエタリなLLMと同等以上の推論能力を得ることができる。
関連論文リスト
- TS-Reasoner: Aligning Time Series Foundation Models with LLM Reasoning [17.69077698133793]
時系列推論は、金融、エネルギー利用、交通、天候、科学的発見など、さまざまな領域における意思決定に不可欠である。
LLMは時系列データの数値的理解に苦慮することが多い。
そこで我々は,アライメント事前学習後に微調整を施したトレーニングレシピを開発した。
論文 参考訳(メタデータ) (2025-10-03T21:20:54Z) - Eliciting Chain-of-Thought Reasoning for Time Series Analysis using Reinforcement Learning [2.426309874608745]
複雑な数値時系列解析は、しばしば現在のモデルの範囲を超えて多段階の推論能力を必要とする。
我々は,大規模言語モデルを訓練して,多種多様な時系列タスクに対して,検証可能な報酬付き強化学習(RL)を用いた推論を行うための,最初のフレームワークであるCOUNTS(Chain Of thought for Understanding Numerical Time Series)を紹介した。
実験により、中間CoT推論を用いたこのRL駆動方式は、様々な時系列解析タスクにおけるLLM性能を大幅に向上させ、複雑な時間的データ推論の新たな可能性を開くことを実証した。
論文 参考訳(メタデータ) (2025-10-01T17:02:28Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Large Language Models are Few-shot Multivariate Time Series Classifiers [23.045734479292356]
大規模言語モデル (LLM) は時系列解析に広く応用されている。
しかし、数発の分類(すなわち重要な訓練シナリオ)におけるそれらの実用性は過小評価されている。
データ不足を克服するために,LLMの学習済み知識を幅広く活用することを目的としている。
論文 参考訳(メタデータ) (2025-01-30T03:59:59Z) - ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning [10.854285913078257]
本稿では,時系列解析用に設計された新しいMLLMであるChatTSを紹介する。
ChatTSは、視覚MLLMが画像を処理する方法と同様、時系列をモダリティとして扱う。
Time Series Evol-Instructは様々な時系列Q&Aを生成し、モデルの推論能力を高めます。
論文 参考訳(メタデータ) (2024-12-04T08:06:15Z) - TableTime: Reformulating Time Series Classification as Training-Free Table Understanding with Large Language Models [20.077169400691435]
大規模言語モデル (LLM) は多変量時系列分類において有効であることを示した。
LLM は LLM の潜在空間内の時系列の埋め込みを直接コードし、LLM の意味空間と一致させる。
MTSCを表理解タスクとして再編成するテーブルタイムを提案する。
論文 参考訳(メタデータ) (2024-11-24T07:02:32Z) - Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。