論文の概要: Rationale-Grounded In-Context Learning for Time Series Reasoning with Multimodal Large Language Models
- arxiv url: http://arxiv.org/abs/2601.02968v1
- Date: Tue, 06 Jan 2026 12:27:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.923538
- Title: Rationale-Grounded In-Context Learning for Time Series Reasoning with Multimodal Large Language Models
- Title(参考訳): マルチモーダル大言語モデルを用いた時系列推論のためのRationale-Grounded In-Context Learning
- Authors: Qingxiang Liu, Zhiqing Cui, Xiaoliang Luo, Yuqian Wu, Zhuoyang Jiang, Huaiyu Wan, Sheng Sun, Lvchun Wang, Wei Yu, Yuxuan Liang,
- Abstract要約: 本稿では,時間列推論のための理性学習手法を提案する。
提案するRationaleTSの3ドメイン時系列推論タスクにおける有効性と有効性を示すため,広範囲な実験を行った。
- 参考スコア(独自算出の注目度): 39.75347938309383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The underperformance of existing multimodal large language models for time series reasoning lies in the absence of rationale priors that connect temporal observations to their downstream outcomes, which leads models to rely on superficial pattern matching rather than principled reasoning. We therefore propose the rationale-grounded in-context learning for time series reasoning, where rationales work as guiding reasoning units rather than post-hoc explanations, and develop the RationaleTS method. Specifically, we firstly induce label-conditioned rationales, composed of reasoning paths from observable evidence to the potential outcomes. Then, we design the hybrid retrieval by balancing temporal patterns and semantic contexts to retrieve correlated rationale priors for the final in-context inference on new samples. We conduct extensive experiments to demonstrate the effectiveness and efficiency of our proposed RationaleTS on three-domain time series reasoning tasks. We will release our code for reproduction.
- Abstract(参考訳): 時系列推論のための既存のマルチモーダルな大規模言語モデルの性能の過小評価は、時間的観察と下流の結果を結び付ける有理事前の欠如にある。
そこで,本論文では,時間列推論のための理性学習法を提案し,理性学習は時間列推論法ではなく推論単位を導くものとして機能し,RationaleTS法を開発した。
具体的には、まず、観測可能な証拠から潜在的な結果への推論経路からなるラベル条件の有理を誘導する。
そこで我々は,時間的パターンと意味的文脈のバランスをとることによってハイブリッド検索を設計し,新しいサンプルに対する最後の文脈内推論のための有意な有意な先行関係を検索する。
提案するRationaleTSの3ドメイン時系列推論タスクにおける有効性と有効性を示すため,広範囲な実験を行った。
私たちは再生のためにコードを公開します。
関連論文リスト
- Rethinking the Chain-of-Thought: The Roles of In-Context Learning and Pre-trained Priors [11.658759174514222]
Chain-of-Thought推論は、モデル推論能力を向上するための重要な方法論として登場した。
本稿では、文脈内学習と事前学習との二重関係の観点から、思考の連鎖的推論の動作メカニズムを考察する。
論文 参考訳(メタデータ) (2025-09-01T08:24:28Z) - Causal Reasoning in Pieces: Modular In-Context Learning for Causal Discovery [6.72184534513047]
因果推論は依然として大きな言語モデルにとって根本的な課題である。
大規模言語モデルによる内部推論の最近の進歩は、関心を喚起している。
我々はOpenAIのo-seriesとDeepSeek-Rモデルファミリを用いたCorr2Causeベンチマークの因果発見について検討した。
論文 参考訳(メタデータ) (2025-07-31T12:10:27Z) - A Survey on Latent Reasoning [100.54120559169735]
大きな言語モデル(LLM)は印象的な推論機能を示している。
中間ステップを言語化するCoT推論は、モデルの表現帯域幅を制限する。
潜在的推論は、モデルの連続的な隠れ状態に完全にマルチステップの推論を実行することで、このボトルネックに対処する。
論文 参考訳(メタデータ) (2025-07-08T17:29:07Z) - Enhancing LLM Reasoning for Time Series Classification by Tailored Thinking and Fused Decision [8.256998757769322]
ReasonTSC は時系列分類のための LLM 推論を活用するために設計されたフレームワークである。
時系列データの本質的な特性について、モデルを熟考する。
これは、例えばドメイン固有の時系列モデルのようなプラグイン分類器からの予測と信頼スコアを、インコンテキストの例として統合する。
論文 参考訳(メタデータ) (2025-06-01T03:15:54Z) - A Closer Look at Bias and Chain-of-Thought Faithfulness of Large (Vision) Language Models [58.32070787537946]
思考の連鎖(CoT)推論は、大きな言語モデルの性能を高める。
大規模視覚言語モデルにおけるCoT忠実度に関する最初の総合的研究について述べる。
論文 参考訳(メタデータ) (2025-05-29T18:55:05Z) - Learning to Reason Over Time: Timeline Self-Reflection for Improved Temporal Reasoning in Language Models [21.579319926212296]
大規模言語モデル(LLM)は、一貫性のあるテキストを生成し、コンテキストを理解し、推論タスクを実行するための強力なツールとして登場した。
彼らは時間的推論に苦しむが、それはイベントシーケンシングや時間的関係、時間的関係などの時間的関連情報を処理する必要がある。
我々は,タイムライン構築と反復的自己回帰を組み合わせた多段階プロセスを通じて,LLMの時間的推論能力を高める新しいフレームワークであるTISERを紹介する。
論文 参考訳(メタデータ) (2025-04-07T16:51:45Z) - The Curse of CoT: On the Limitations of Chain-of-Thought in In-Context Learning [56.574829311863446]
CoT(Chain-of-Thought)プロンプトは,大規模言語モデル(LLM)における推論能力の向上によって広く認識されている。
我々は、CoTとその推論変異が、様々なモデルスケールやベンチマークの複雑さに対して、直接応答を一貫して過小評価していることを実証する。
パターンベースICLにおけるCoTの性能を駆動する明示的単純推論の基本的なハイブリッド機構を明らかにする。
論文 参考訳(メタデータ) (2025-04-07T13:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。