論文の概要: Time Series Forecasting as Reasoning: A Slow-Thinking Approach with Reinforced LLMs
- arxiv url: http://arxiv.org/abs/2506.10630v1
- Date: Thu, 12 Jun 2025 12:15:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.721211
- Title: Time Series Forecasting as Reasoning: A Slow-Thinking Approach with Reinforced LLMs
- Title(参考訳): 推論としての時系列予測:強化LDMによるスローシンク手法
- Authors: Yucong Luo, Yitong Zhou, Mingyue Cheng, Jiahao Wang, Daoyu Wang, Tingyue Pan, Jintao Zhang,
- Abstract要約: Time-R1は、時系列予測のためのLLMの多段階推論能力を高めるために設計された2段階強化微調整フレームワークである。
具体的には、第1段はウォームアップ適応のための教師付き微調整を行い、第2段は強化学習を用いてモデルの一般化能力を向上させる。
実験によると、Time-R1は多様なデータセット間で予測性能を大幅に改善する。
- 参考スコア(独自算出の注目度): 12.295608604703117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To advance time series forecasting (TSF), various methods have been proposed to improve prediction accuracy, evolving from statistical techniques to data-driven deep learning architectures. Despite their effectiveness, most existing methods still adhere to a fast thinking paradigm-relying on extracting historical patterns and mapping them to future values as their core modeling philosophy, lacking an explicit thinking process that incorporates intermediate time series reasoning. Meanwhile, emerging slow-thinking LLMs (e.g., OpenAI-o1) have shown remarkable multi-step reasoning capabilities, offering an alternative way to overcome these issues. However, prompt engineering alone presents several limitations - including high computational cost, privacy risks, and limited capacity for in-depth domain-specific time series reasoning. To address these limitations, a more promising approach is to train LLMs to develop slow thinking capabilities and acquire strong time series reasoning skills. For this purpose, we propose Time-R1, a two-stage reinforcement fine-tuning framework designed to enhance multi-step reasoning ability of LLMs for time series forecasting. Specifically, the first stage conducts supervised fine-tuning for warmup adaptation, while the second stage employs reinforcement learning to improve the model's generalization ability. Particularly, we design a fine-grained multi-objective reward specifically for time series forecasting, and then introduce GRIP (group-based relative importance for policy optimization), which leverages non-uniform sampling to further encourage and optimize the model's exploration of effective reasoning paths. Experiments demonstrate that Time-R1 significantly improves forecast performance across diverse datasets.
- Abstract(参考訳): 時系列予測(TSF)を推し進めるために,統計的手法からデータ駆動型ディープラーニングアーキテクチャへ進化し,予測精度を向上させる様々な手法が提案されている。
それらの効果にもかかわらず、既存のほとんどの手法は依然として高速な思考パラダイムに固執し、歴史パターンの抽出と将来の価値へのマッピングを中心となるモデリング哲学として、中間時系列推論を取り入れた明示的な思考プロセスが欠如している。
一方、ゆっくり考えていくLSM(例:OpenAI-o1)は目覚ましい多段階推論能力を示しており、これらの問題を克服するための代替手段を提供しています。
しかし、プロンプトエンジニアリングだけでは、高い計算コスト、プライバシーリスク、詳細なドメイン固有の時系列推論のための限られた能力など、いくつかの制限がある。
これらの制限に対処するため、より有望なアプローチは、LLMを訓練して遅い思考能力を開発し、強力な時系列推論スキルを取得することである。
本研究では,時系列予測のためのLLMの多段階推論能力を向上する2段階強化微調整フレームワークであるTime-R1を提案する。
具体的には、第1段はウォームアップ適応のための教師付き微調整を行い、第2段は強化学習を用いてモデルの一般化能力を向上させる。
特に、時系列予測に特化した細粒度多目的報酬を設計し、非一様サンプリングを活用して効果的な推論経路の探索をさらに促進し最適化するGRIP(グループベースのポリシー最適化の相対的重要性)を導入する。
実験によると、Time-R1は多様なデータセット間で予測性能を大幅に改善する。
関連論文リスト
- Enhancing LLM Reasoning for Time Series Classification by Tailored Thinking and Fused Decision [8.256998757769322]
ReasonTSC は時系列分類のための LLM 推論を活用するために設計されたフレームワークである。
時系列データの本質的な特性について、モデルを熟考する。
これは、例えばドメイン固有の時系列モデルのようなプラグイン分類器からの予測と信頼スコアを、インコンテキストの例として統合する。
論文 参考訳(メタデータ) (2025-06-01T03:15:54Z) - Can Slow-thinking LLMs Reason Over Time? Empirical Studies in Time Series Forecasting [17.73769436497384]
時系列予測(TSF)は、古典的な統計的アプローチから現代のディープラーニングやマルチモーダル言語モデリングまで、基礎的で広く研究されている課題である。
一方、ゆっくり考え始めるLSMは、様々な領域にまたがる印象的な多段階推論能力を示している。
スロー思考のLLMは、時系列予測をサポートするために時間的パターンよりも効果的に推論できるのか?
論文 参考訳(メタデータ) (2025-05-30T12:19:02Z) - LangTime: A Language-Guided Unified Model for Time Series Forecasting with Proximal Policy Optimization [3.1819993716919472]
LangTimeは、時系列予測のための言語誘導統合モデルである。
TimePPOは強化学習に基づく微調整アルゴリズムである。
論文 参考訳(メタデータ) (2025-03-11T10:40:39Z) - Explainable Multi-modal Time Series Prediction with LLM-in-the-Loop [63.34626300024294]
TimeXLはプロトタイプベースの時系列エンコーダを統合するマルチモーダル予測フレームワークである。
より正確な予測と解釈可能な説明を生成する。
4つの実世界のデータセットに対する実証的な評価は、TimeXLがAUCで最大8.9%の改善を達成していることを示している。
論文 参考訳(メタデータ) (2025-03-02T20:40:53Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - USTEP: Spatio-Temporal Predictive Learning under A Unified View [62.58464029270846]
UTEP(Unified S-Temporal Predictive Learning)は,マイクロテンポラリスケールとマクロテンポラリスケールを統合した再帰的および再帰的フリーな手法を再構築する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2023-10-09T16:17:42Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。