論文の概要: Thoth: Mid-Training Bridges LLMs to Time Series Understanding
- arxiv url: http://arxiv.org/abs/2603.01042v1
- Date: Sun, 01 Mar 2026 10:44:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.476124
- Title: Thoth: Mid-Training Bridges LLMs to Time Series Understanding
- Title(参考訳): Thoth: 時系列理解のための中級トレーニングブリッジ
- Authors: Jiafeng Lin, Yuxuan Wang, Jialong Wu, Huakun Luo, Zhongyi Pei, Jianmin Wang,
- Abstract要約: 大規模言語モデル (LLM) は汎用推論において顕著な成功を収めている。
しかし、彼らは時系列データの理解と分析に苦慮している。
我々は、汎用時系列理解機能を備えた中級LLMの最初のファミリーであるThothを提案する。
- 参考スコア(独自算出の注目度): 17.78506190691166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable success in general-purpose reasoning. However, they still struggle to understand and reason about time series data, which limits their effectiveness in decision-making scenarios that depend on temporal dynamics. In this paper, we propose Thoth, the first family of mid-trained LLMs with general-purpose time series understanding capabilities. As a pivotal intermediate stage, mid-training achieves task- and domain-agnostic alignment between time series and natural language, for which we construct Book-of-Thoth, a high-quality, time-series-centric mid-training corpus. Book-of-Thoth enables both time-series-to-text and text-to-time-series generation, equipping LLMs with a foundational grasp of temporal patterns. To better evaluate advanced reasoning capabilities, we further present KnoTS, a novel benchmark of knowledge-intensive time series understanding, designed for joint reasoning over temporal patterns and domain knowledge. Extensive experiments demonstrate that mid-training with Book-of-Thoth enables Thoth to significantly outperform its base model and advanced LLMs across a range of time series question answering benchmarks. Moreover, Thoth exhibits superior capabilities when fine-tuned under data scarcity, underscoring the effectiveness of mid-training for time series understanding. Code is available at: https://github.com/thuml/Thoth.
- Abstract(参考訳): 大規模言語モデル (LLM) は汎用推論において顕著な成功を収めている。
しかし、彼らは時系列データの理解と推論に苦慮しており、時間的ダイナミクスに依存する意思決定シナリオにおける有効性を制限している。
本稿では,汎用時系列理解機能を備えた中級LLMの最初のファミリーであるThothを提案する。
中心的な中間段階として、中間訓練は時系列と自然言語のタスクとドメインに依存しないアライメントを実現し、高品質で時系列中心の中間訓練コーパスであるBook-of-Thothを構築する。
Book-of-Thothは、時系列とテキスト・ツー・タイムの両方を生成することができる。
さらに,高度な推論能力を評価するために,時間的パターンやドメイン知識に対する共同推論のために設計された,知識集約型時系列理解の新たなベンチマークであるKnoTSを提示する。
広範囲な実験により、Book-of-Thothを用いた中間トレーニングにより、Thothはそのベースモデルと高度なLCMを、時系列質問応答ベンチマークで大幅に上回ることが示されている。
さらに、Thothはデータ不足下で微調整された場合に優れた能力を示し、時系列理解のための中級トレーニングの有効性を強調している。
コードは、https://github.com/thuml/Thoth.comで入手できる。
関連論文リスト
- TS-Reasoner: Aligning Time Series Foundation Models with LLM Reasoning [17.69077698133793]
時系列推論は、金融、エネルギー利用、交通、天候、科学的発見など、さまざまな領域における意思決定に不可欠である。
LLMは時系列データの数値的理解に苦慮することが多い。
そこで我々は,アライメント事前学習後に微調整を施したトレーニングレシピを開発した。
論文 参考訳(メタデータ) (2025-10-03T21:20:54Z) - Augmenting LLMs for General Time Series Understanding and Prediction [2.426309874608745]
時系列データは、医療、金融、環境科学を含む多くの重要な領域における意思決定に不可欠である。
TsLLM(Time Series-augmented LLM)を200万回以上のインターリーブされた時系列とテキストサンプルの大規模なコーパスでトレーニングする。
このトレーニングにより、TsLLMは言語理解と新たに獲得した時間的推論機能の両方を活用することができる。
論文 参考訳(メタデータ) (2025-10-01T16:54:46Z) - Game-Time: Evaluating Temporal Dynamics in Spoken Language Models [93.844257719952]
時間的能力を評価するためにGame-Time Benchmarkフレームワークを導入します。
多様なSLMモデルについて評価した結果,性能の相違が明らかとなった。
GameTime Benchmarkは、より時間的に認識された会話型AIに向けた将来の研究を導くための基盤を提供する。
論文 参考訳(メタデータ) (2025-09-30T15:23:39Z) - TimeOmni-1: Incentivizing Complex Reasoning with Time Series in Large Language Models [105.47481207029047]
時系列を推論する3つの基本的な機能にまたがる4つのアトミックタスクを形式化した時系列推論スイート(TSR-Suite)を紹介する。
また,時系列推論を必要とする多種多様な実世界の問題に対処するために設計された最初の統一推論モデルであるTime Omni-1を紹介する。
論文 参考訳(メタデータ) (2025-09-29T13:54:34Z) - TimeMaster: Training Time-Series Multimodal LLMs to Reason via Reinforcement Learning [6.860030590512406]
時系列推論は、マルチモーダル大言語モデル(MLLM)において重要な課題である。
時系列MLLMを可視化した時系列入力やタスクプロンプト上で直接構造化・解釈可能な推論を行うことができる強化学習ベースのTimeMasterを導入する。
TimeMasterは最先端のパフォーマンスを達成し、古典的な時系列モデルと数ショットのGPT-4oをそれぞれ14.6%以上、パフォーマンスが7.3%以上向上した。
論文 参考訳(メタデータ) (2025-06-16T17:12:26Z) - Chat-TS: Enhancing Multi-Modal Reasoning Over Time-Series and Natural Language Data [22.274663165215237]
時系列分析は、医療、金融、交通、エネルギーなど幅広い分野において重要である。
現在の時系列モデルは、時系列とテキストコンテンツの両方を含む推論を行う能力に制限がある。
Chat-TSは時系列トークンをLLMの語彙に統合し、両方のモダリティに対する推論能力を高める。
論文 参考訳(メタデータ) (2025-03-13T21:05:11Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning [10.854285913078257]
本稿では,時系列解析用に設計された新しいMLLMであるChatTSを紹介する。
ChatTSは、視覚MLLMが画像を処理する方法と同様、時系列をモダリティとして扱う。
Time Series Evol-Instructは様々な時系列Q&Aを生成し、モデルの推論能力を高めます。
論文 参考訳(メタデータ) (2024-12-04T08:06:15Z) - Living in the Moment: Can Large Language Models Grasp Co-Temporal Reasoning? [70.19200858203388]
時間的推論は、世界を理解するための大きな言語モデルの基本である。
CoTempQAは4つの時間的シナリオを含むベンチマークである。
実験の結果,LLMの性能と人間レベルの推論との間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-06-13T12:56:21Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - Position: What Can Large Language Models Tell Us about Time Series Analysis [69.70906014827547]
現在の大規模言語モデル(LLM)は時系列解析に革命をもたらす可能性があると我々は主張する。
このような進歩は、時系列のモダリティスイッチングや質問応答など、幅広い可能性を解き放つ可能性がある。
論文 参考訳(メタデータ) (2024-02-05T04:17:49Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Large Language Models Can Learn Temporal Reasoning [11.599570446840547]
本稿では,言語に基づく時間的推論のための新しいフレームワークTG-LLMを提案する。
元の文脈を推論する代わりに、潜時表現、時間グラフ(TG)を採用する。
合成データセット(TGQA)は完全に制御可能であり、最小限の監督を必要とする。
論文 参考訳(メタデータ) (2024-01-12T19:00:26Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。