論文の概要: TimeOmni-1: Incentivizing Complex Reasoning with Time Series in Large Language Models
- arxiv url: http://arxiv.org/abs/2509.24803v1
- Date: Mon, 29 Sep 2025 13:54:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.027756
- Title: TimeOmni-1: Incentivizing Complex Reasoning with Time Series in Large Language Models
- Title(参考訳): TimeOmni-1:大規模言語モデルにおける時系列による複雑な推論のインセンティブ
- Authors: Tong Guan, Zijie Meng, Dianqi Li, Shiyu Wang, Chao-Han Huck Yang, Qingsong Wen, Zuozhu Liu, Sabato Marco Siniscalchi, Ming Jin, Shirui Pan,
- Abstract要約: 時系列を推論する3つの基本的な機能にまたがる4つのアトミックタスクを形式化した時系列推論スイート(TSR-Suite)を紹介する。
また,時系列推論を必要とする多種多様な実世界の問題に対処するために設計された最初の統一推論モデルであるTime Omni-1を紹介する。
- 参考スコア(独自算出の注目度): 105.47481207029047
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in multimodal time series learning underscore a paradigm shift from analytics centered on basic patterns toward advanced time series understanding and reasoning. However, existing multimodal time series datasets mostly remain at the level of surface alignment and question answering, without reaching the depth of genuine reasoning. The absence of well-defined tasks that genuinely require time series reasoning, along with the scarcity of high-quality data, has limited progress in building practical time series reasoning models (TSRMs). To this end, we introduce Time Series Reasoning Suite (TSR-Suite), which formalizes four atomic tasks that span three fundamental capabilities for reasoning with time series: (1) perception, acquired through scenario understanding and causality discovery; (2) extrapolation, realized via event-aware forecasting; and (3) decision-making, developed through deliberation over perception and extrapolation. TSR-Suite is the first comprehensive time series reasoning suite that supports not only thorough evaluation but also the data pipeline and training of TSRMs. It contains more than 23K samples, of which 2.3K are carefully curated through a human-guided hierarchical annotation process. Building on this foundation, we introduce TimeOmni-1, the first unified reasoning model designed to address diverse real-world problems demanding time series reasoning. The model is trained in multiple stages, integrating a mixture of task scenarios, novel reward functions, and tailored optimizations. Experiments show that TimeOmni-1 delivers strong out-of-distribution generalization across all tasks and achieves a high rate of valid responses. It significantly improves causality discovery accuracy (64.0% vs. 35.9% with GPT-4.1) and raises the valid response rate by over 6% compared to GPT-4.1 on the event-aware forecasting task.
- Abstract(参考訳): マルチモーダル時系列学習の最近の進歩は、基本的なパターンを中心とした分析から、高度な時系列理解と推論へのパラダイムシフトを浮き彫りにしている。
しかし、既存のマルチモーダル時系列データセットは、真の推論の深さに達することなく、表面アライメントと質問応答のレベルに留まっている。
時系列推論を真に必要とするような明確に定義されたタスクが存在しないことは、高品質なデータの不足と共に、実用的な時系列推論モデル(TSRM)を構築する上での進歩に限界がある。
この目的のために、時系列推論の基本的な3つの機能にまたがる4つのアトミックタスクを形式化する時系列推論スイート(TSR-Suite)を紹介した。
TSR-Suiteは、徹底的な評価だけでなく、TSRMのデータパイプラインとトレーニングもサポートする最初の総合時系列推論スイートである。
23K以上のサンプルが含まれており、そのうち2.3Kは人間のガイドによる階層的アノテーションプロセスを通じて慎重にキュレートされている。
この基礎の上に構築されたTimeOmni-1は、時系列推論を必要とする多様な現実世界の問題に対処するために設計された最初の統一推論モデルである。
モデルは複数のステージで訓練され、タスクシナリオ、新しい報酬関数、調整された最適化が混在している。
実験により、TimeOmni-1 は全てのタスクに強い分布の一般化をもたらし、高い応答率を達成することが示された。
因果発見精度(GPT-4.1では64.0%対35.9%)を大幅に改善し、事象認識予測タスクではGPT-4.1に比べて有効応答率を6%以上向上させる。
関連論文リスト
- Time-RA: Towards Time Series Reasoning for Anomaly with LLM Feedback [55.284574165467525]
Time-RA(Time-Series Reasoning for Anomaly)は、時系列異常検出を生成的、推論集約的なタスクに変換する。
また,実世界のマルチモーダルベンチマークデータセットであるRATs40Kを導入する。
論文 参考訳(メタデータ) (2025-07-20T18:02:50Z) - TimeMaster: Training Time-Series Multimodal LLMs to Reason via Reinforcement Learning [6.860030590512406]
時系列推論は、マルチモーダル大言語モデル(MLLM)において重要な課題である。
時系列MLLMを可視化した時系列入力やタスクプロンプト上で直接構造化・解釈可能な推論を行うことができる強化学習ベースのTimeMasterを導入する。
TimeMasterは最先端のパフォーマンスを達成し、古典的な時系列モデルと数ショットのGPT-4oをそれぞれ14.6%以上、パフォーマンスが7.3%以上向上した。
論文 参考訳(メタデータ) (2025-06-16T17:12:26Z) - General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - DAM: Towards A Foundation Model for Time Series Forecasting [0.8231118867997028]
本稿では,ランダムにサンプリングされた履歴を抽出し,時間連続関数として調整可能な基底組成を出力するニューラルモデルを提案する。
1)長い尾の分布からランダムにサンプリングされたヒストリーを使用する柔軟なアプローチ、(2)これらの活発にサンプリングされたヒストリーに基づいてトレーニングされたトランスフォーマーバックボーンを表現的出力として、(3)時間の連続関数の基底係数を含む。
論文 参考訳(メタデータ) (2024-07-25T08:48:07Z) - Empowering Time Series Analysis with Foundation Models: A Comprehensive Survey [32.794229758722985]
時系列データは、様々な現実世界のアプリケーションに分散している。
従来のアプローチは主にタスク固有のもので、限られた機能と低転送性を提供します。
ファンデーションモデルは、その顕著なクロスタスク転送可能性によって、NLPとCVに革命をもたらした。
論文 参考訳(メタデータ) (2024-05-03T03:12:55Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - Boosted Ensemble Learning based on Randomized NNs for Time Series
Forecasting [0.0]
時系列予測は、特に時系列が複数の季節性、非線形傾向、変動の変動を表現する場合、難しい問題である。
本稿では,ランダムなニューラルネットワークに基づくアンサンブル学習を提案する。
論文 参考訳(メタデータ) (2022-03-02T09:43:18Z) - An Empirical Study: Extensive Deep Temporal Point Process [61.14164208094238]
本稿では,非同期イベントシーケンスを時間的プロセスでモデル化することの課題と最近の研究を概観する。
本稿では,多種類のイベント間の関係を生かしたGranger因果発見フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-19T10:15:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。