論文の概要: SenTSR-Bench: Thinking with Injected Knowledge for Time-Series Reasoning
- arxiv url: http://arxiv.org/abs/2602.19455v1
- Date: Mon, 23 Feb 2026 02:55:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.654823
- Title: SenTSR-Bench: Thinking with Injected Knowledge for Time-Series Reasoning
- Title(参考訳): SenTSR-Bench: 時系列推論のためのインジェクト知識による思考
- Authors: Zelin He, Boran Han, Xiyuan Zhang, Shuai Zhang, Haotian Lin, Qi Zhu, Haoyang Fang, Danielle C. Maddix, Abdul Fatir Ansari, Akash Chandrayan, Abhinav Pradhan, Bernie Wang, Matthew Reimherr,
- Abstract要約: 大きな推論モデル(GRLM)は、強い推論スキルを持っているが、複雑な時系列パターンを理解するためのドメイン固有の知識は欠如している。
本稿では,TSLM生成した知見を直接GRLMの推論トレースに注入するハイブリッドな知識注入フレームワークを提案する。
SenTSR-Benchや他の公開データセット全体で、我々の方法はTSLMを9.1%-26.1%、GRLMを7.9%-22.4%上回る。
- 参考スコア(独自算出の注目度): 27.91435057369479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-series diagnostic reasoning is essential for many applications, yet existing solutions face a persistent gap: general reasoning large language models (GRLMs) possess strong reasoning skills but lack the domain-specific knowledge to understand complex time-series patterns. Conversely, fine-tuned time-series LLMs (TSLMs) understand these patterns but lack the capacity to generalize reasoning for more complicated questions. To bridge this gap, we propose a hybrid knowledge-injection framework that injects TSLM-generated insights directly into GRLM's reasoning trace, thereby achieving strong time-series reasoning with in-domain knowledge. As collecting data for knowledge injection fine-tuning is costly, we further leverage a reinforcement learning-based approach with verifiable rewards (RLVR) to elicit knowledge-rich traces without human supervision, then transfer such an in-domain thinking trace into GRLM for efficient knowledge injection. We further release SenTSR-Bench, a multivariate time-series-based diagnostic reasoning benchmark collected from real-world industrial operations. Across SenTSR-Bench and other public datasets, our method consistently surpasses TSLMs by 9.1%-26.1% and GRLMs by 7.9%-22.4%, delivering robust, context-aware time-series diagnostic insights.
- Abstract(参考訳): 大規模言語モデル(GRLM)は強力な推論スキルを持っているが、複雑な時系列パターンを理解するためのドメイン固有の知識が欠如している。
逆に、微調整された時系列 LLM (TSLMs) はこれらのパターンを理解するが、より複雑な問題に対する推論を一般化する能力は欠如している。
このギャップを埋めるために,TSLM生成した知見を直接GRLMの推論トレースに直接注入するハイブリッドな知識注入フレームワークを提案する。
知識注入細調整のためのデータ収集はコストがかかるため,人間の監督なしに知識に富んだ痕跡を抽出するために,検証可能な報酬(RLVR)を用いた強化学習ベースのアプローチをさらに活用し,そのようなドメイン内思考トレースをGRLMに転送して,効率的な知識注入を行う。
我々はさらに,実世界の産業運用から収集した多変量時系列に基づく診断推論ベンチマークであるSenTSR-Benchをリリースする。
SenTSR-Benchや他の公開データセット全体で、我々の手法はTSLMを9.1%-26.1%、GRLMを7.9%-22.4%上回り、堅牢でコンテキスト対応の時系列診断の洞察を提供する。
関連論文リスト
- Knowledge Integration Decay in Search-Augmented Reasoning of Large Language Models [36.1675867877378]
本研究では,知識利用の安定化を目的とした,学習不要な推論時間戦略であるSelf-Anchored Knowledge Integration (SAKE)を提案する。
SAKEはKnowledge Decay(KID)を大幅に軽減し、パフォーマンスを改善し、エージェントLLMにおける知識統合のための軽量で効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2026-02-10T08:20:26Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Knowledge Augmented Finetuning Matters in both RAG and Agent Based Dialog Systems [18.83666259380603]
大規模言語モデル (LLM) はダイアログシステムに適用されている。
LLMは知識集約的なシナリオでエラーを起こしやすい。
検索拡張生成(RAG)とエージェントに基づくアプローチが現われ,実際の精度が向上した。
論文 参考訳(メタデータ) (2025-06-28T11:26:31Z) - Benchmarking Spatiotemporal Reasoning in LLMs and Reasoning Models: Capabilities and Challenges [4.668749313973097]
本稿では,Large Language Models (LLMs) とLarge Reasoning Models (LRMs) を3段階の推論複雑性で体系的に評価する。
モデルが直接、あるいはPython Code Interpreterによって応答する26の課題をキュレートします。
LRMは、様々な難易度を持つタスク間で堅牢なパフォーマンスを示し、しばしば従来の第一原理に基づく手法と競合する。
論文 参考訳(メタデータ) (2025-05-16T18:32:35Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning [87.10396098919013]
大規模言語モデル (LLM) は、時間的推論において広範な知識と卓越した能力を示した。
本稿では,時間的知識グラフに基づく推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
論文 参考訳(メタデータ) (2024-05-23T04:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。