論文の概要: Time-R1: Towards Comprehensive Temporal Reasoning in LLMs
- arxiv url: http://arxiv.org/abs/2505.13508v2
- Date: Tue, 03 Jun 2025 05:30:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:31.986125
- Title: Time-R1: Towards Comprehensive Temporal Reasoning in LLMs
- Title(参考訳): Time-R1:LLMにおける総合的時間推論を目指して
- Authors: Zijia Liu, Peixuan Han, Haofei Yu, Haoru Li, Jiaxuan You,
- Abstract要約: textitTime-R1は,時間的包括的能力を持つ中規模(3B-パラメータ)の大規模言語モデルを実現するフレームワークである。
Time-R1は、最先端の671B DeepSeek-R1を含む200倍以上のモデルで性能が向上している。
この研究は、思慮深く設計されたプログレッシブRL微調整により、より小さく効率的なモデルで時間的性能を向上できるという強い証拠を提供する。
- 参考スコア(独自算出の注目度): 12.147540725976462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) demonstrate impressive capabilities but lack robust temporal intelligence, struggling to integrate reasoning about the past with predictions and plausible generations of the future. Meanwhile, existing methods typically target isolated temporal skills, such as question answering about past events or basic forecasting, and exhibit poor generalization, particularly when dealing with events beyond their knowledge cutoff or requiring creative foresight. To address these limitations, we introduce \textit{Time-R1}, the first framework to endow a moderate-sized (3B-parameter) LLM with comprehensive temporal abilities: understanding, prediction, and creative generation. Our approach features a novel three-stage development path; the first two constitute a \textit{reinforcement learning (RL) curriculum} driven by a meticulously designed dynamic rule-based reward system. This framework progressively builds (1) foundational temporal understanding and logical event-time mappings from historical data, (2) future event prediction skills for events beyond its knowledge cutoff, and finally (3) enables remarkable generalization to creative future scenario generation without any fine-tuning. Strikingly, experiments demonstrate that Time-R1 outperforms models over 200 times larger, including the state-of-the-art 671B DeepSeek-R1, on highly challenging future event prediction and creative scenario generation benchmarks. This work provides strong evidence that thoughtfully engineered, progressive RL fine-tuning allows smaller, efficient models to achieve superior temporal performance, offering a practical and scalable path towards truly time-aware AI. To foster further research, we also release \textit{Time-Bench}, a large-scale multi-task temporal reasoning dataset derived from 10 years of news data, and our series of \textit{Time-R1} checkpoints.
- Abstract(参考訳): 大きな言語モデル(LLM)は印象的な能力を示すが、堅牢な時間的知性は欠如しており、過去の推論と将来の予測と妥当な世代を統合するのに苦労している。
一方、既存の手法では、過去の出来事に対する質問応答や基本的な予測といった孤立した時間的スキルを目標としており、特に知識の切り離し以上の出来事を扱う場合、特に創造的な見通しを必要とする場合、一般化が不十分である。
これらの制約に対処するため、我々は、理解、予測、創造的生成という包括的な時間的能力を持つ中規模(3Bパラメータ) LLM を提供する最初のフレームワークである \textit{Time-R1} を紹介した。
最初の2つは、厳密に設計された動的ルールベースの報酬システムによって駆動される「textit{reinforcement learning (RL)」カリキュラムを構成する。
本フレームワークは,(1)歴史的データからの基本的時間的理解と論理的イベントタイムマッピング,(2)知識の遮断を超えたイベントの今後のイベント予測スキル,(3)微調整なしに創造的なシナリオ生成に顕著な一般化を可能にする。
興味深いことに、Time-R1は、最先端の671B DeepSeek-R1を含む200倍以上のモデルで、非常に困難な未来のイベント予測と創造的なシナリオ生成ベンチマークで、パフォーマンスが向上することを示した。
この研究は、思慮深く設計されたプログレッシブなRL微調整によって、より小さく効率的なモデルによって、時間的なパフォーマンスが向上し、真にタイムアウェアなAIへの実践的でスケーラブルな道筋を提供する、という強力な証拠を提供する。
さらに,10年間のニュースデータから得られた大規模マルチタスク時間的推論データセットである \textit{Time-Bench} と,我々の一連の \textit{Time-R1} チェックポイントもリリースした。
関連論文リスト
- CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - Remember This Event That Year? Assessing Temporal Information and Reasoning in Large Language Models [1.472789264981363]
大規模言語モデル(LLM)はますます普及しているが、時間的情報を保持する能力と推論能力は依然として限られている。
本研究は,紀元前1万年から2100年の間,新しい数値時間データセットである textbfTempUN に関する12の最先端モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-19T09:43:03Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Back to the Future: Towards Explainable Temporal Reasoning with Large
Language Models [33.8108950744839]
そこで本稿では,コンテキストに基づいたイベント発生の予測を行うために,時間的推論を記述可能な最初のタスクを紹介する。
本研究では,時間的予測と説明の最先端性能を実現する方法を示す。
論文 参考訳(メタデータ) (2023-10-02T10:35:23Z) - Reason for Future, Act for Now: A Principled Framework for Autonomous
LLM Agents with Provable Sample Efficiency [53.8779374188643]
本稿では,推論と行動のオーケストレーションを行うための,証明可能な後悔の保証を備えた原則的枠組みを提案する。
具体的には、メモリバッファから学習する推論のためのプロンプトテンプレートを設計し、長い水平線上で将来の軌道を計画する。
各ステップにおいて、LLMエージェントは計画された軌跡の初期動作("act for now")を受け取り、収集したフィードバックをメモリバッファに格納し、推論ルーチンを再起動して、将来の軌跡を新しい状態から再設計する。
論文 参考訳(メタデータ) (2023-09-29T16:36:39Z) - Exploring the Limits of Historical Information for Temporal Knowledge
Graph Extrapolation [59.417443739208146]
本稿では,歴史的コントラスト学習の新しい学習枠組みに基づくイベント予測モデルを提案する。
CENETは、最も潜在的なエンティティを識別するために、歴史的および非歴史的依存関係の両方を学ぶ。
提案したモデルを5つのベンチマークグラフで評価する。
論文 参考訳(メタデータ) (2023-08-29T03:26:38Z) - MPR-Net:Multi-Scale Pattern Reproduction Guided Universality Time Series
Interpretable Forecasting [13.790498420659636]
時系列予測は、その広範な応用が本質的に困難なため、既存の研究から幅広い関心を集めている。
本稿では,まず,畳み込み操作を用いてマルチスケールの時系列パターンを適応的に分解し,パターン再現の既知に基づいてパターン拡張予測手法を構築し,最終的に畳み込み操作を用いて将来的なパターンを再構築する。
時系列に存在する時間的依存関係を活用することで、MPR-Netは線形時間複雑性を達成するだけでなく、予測プロセスも解釈できる。
論文 参考訳(メタデータ) (2023-07-13T13:16:01Z) - VQ-AR: Vector Quantized Autoregressive Probabilistic Time Series
Forecasting [10.605719154114354]
時系列モデルは過去の予測を正確に予測することを目的としており、そこではビジネス上の意思決定のような重要な下流のタスクに予測が使用される。
本稿では,新しい自己回帰型アーキテクチャであるVQ-ARを提案する。
論文 参考訳(メタデータ) (2022-05-31T15:43:46Z) - Temporal Reasoning on Implicit Events from Distant Supervision [91.20159064951487]
本稿では,暗黙的事象の理解度を評価する新しい時間的推論データセットを提案する。
我々は、暗黙の出来事と明示的な出来事の間の時間的関係を予測する際に、最先端のモデルが苦労していることを発見した。
本稿では,大規模テキストからの遠隔監視信号を利用して終末時刻を推定する,ニューロシンボリックな時間的推論モデルSYMTIMEを提案する。
論文 参考訳(メタデータ) (2020-10-24T03:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。