論文の概要: Conversational Time Series Foundation Models: Towards Explainable and Effective Forecasting
- arxiv url: http://arxiv.org/abs/2512.16022v1
- Date: Wed, 17 Dec 2025 23:14:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.847351
- Title: Conversational Time Series Foundation Models: Towards Explainable and Effective Forecasting
- Title(参考訳): 対話型時系列基礎モデル - 説明可能かつ効果的な予測に向けて-
- Authors: Defu Cao, Michael Gee, Jinbo Liu, Hengxuan Wang, Wei Yang, Rui Wang, Yan Liu,
- Abstract要約: 大規模言語モデル(LLM)は強力な推論機能を提供するが、時系列予測への直接適用は効果がないことが証明されている。
SHAPに基づく忠実度スコアによって導かれるR1スタイルの微調整プロセスを導入し,重みを意味のある因果文として解釈するモデルを指導する。
提案手法は,CRPSとMASEの両指標において,先行時系列基礎モデルよりも有意に優れていた。
- 参考スコア(独自算出の注目度): 13.958506262265871
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The proliferation of time series foundation models has created a landscape where no single method achieves consistent superiority, framing the central challenge not as finding the best model, but as orchestrating an optimal ensemble with interpretability. While Large Language Models (LLMs) offer powerful reasoning capabilities, their direct application to time series forecasting has proven ineffective. We address this gap by repositioning the LLM as an intelligent judge that evaluates, explains, and strategically coordinates an ensemble of foundation models. To overcome the LLM's inherent lack of domain-specific knowledge on time series, we introduce an R1-style finetuning process, guided by SHAP-based faithfulness scores, which teaches the model to interpret ensemble weights as meaningful causal statements about temporal dynamics. The trained agent then engages in iterative, multi-turn conversations to perform forward-looking assessments, provide causally-grounded explanations for its weighting decisions, and adaptively refine the optimization strategy. Validated on the GIFT-Eval benchmark on 23 datasets across 97 settings, our approach significantly outperforms leading time series foundation models on both CRPS and MASE metrics, establishing new state-of-the-art results.
- Abstract(参考訳): 時系列基礎モデルの拡散は、一つの手法が一貫した優位性を達成せず、最良のモデルを見つけることではなく、解釈可能性を伴う最適なアンサンブルを編成することという中心的な課題をフレーミングする風景を生み出した。
大規模言語モデル(LLM)は強力な推論機能を提供するが、時系列予測への直接適用は効果がないことが証明されている。
我々はLLMを、基礎モデルのアンサンブルを評価し、説明し、戦略的にコーディネートするインテリジェントな判断として再配置することで、このギャップに対処する。
時系列上でのLLM固有のドメイン固有知識の欠如を克服するために、SHAPに基づく忠実度スコアによって導かれるR1スタイルの微調整プロセスを導入する。
訓練されたエージェントは、前向きのアセスメントを実行するために反復的なマルチターン会話を行い、重み付けの決定について因果的な説明を提供し、最適化戦略を適応的に洗練する。
97設定の23データセットのGIFT-Evalベンチマークで検証した結果,CRPSとMASEの両指標の時系列基盤モデルよりも大幅に向上し,新たな最先端結果が得られた。
関連論文リスト
- WSM: Decay-Free Learning Rate Schedule via Checkpoint Merging for LLM Pre-training [64.0932926819307]
本稿では,学習速度減衰とモデルマージの正式な関係を確立するフレームワークであるWarmup-Stable and Merge(WSM)を紹介する。
WSMは様々な崩壊戦略をエミュレートするための統一された理論基盤を提供する。
私たちのフレームワークは、複数のベンチマークで広く採用されているWarmup-Stable-Decay(WSD)アプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-07-23T16:02:06Z) - Enhancing LLM Reasoning for Time Series Classification by Tailored Thinking and Fused Decision [8.256998757769322]
ReasonTSC は時系列分類のための LLM 推論を活用するために設計されたフレームワークである。
時系列データの本質的な特性について、モデルを熟考する。
これは、例えばドメイン固有の時系列モデルのようなプラグイン分類器からの予測と信頼スコアを、インコンテキストの例として統合する。
論文 参考訳(メタデータ) (2025-06-01T03:15:54Z) - Relative Overfitting and Accept-Reject Framework [5.465098504510676]
本稿では,性能向上のためにモデルをセグメント化する方法を管理するアンサンブルフレームワークを提案する。
NLPの領域におけるこのフレームワークのパターンを詳述し、コンピュータビジョン(CV)や科学のためのAIなど他の分野に簡単に説明します。
論文 参考訳(メタデータ) (2025-05-12T17:36:14Z) - Disentangling Length Bias In Preference Learning Via Response-Conditioned Modeling [87.17041933863041]
RLHF(Reinforcement Learning from Human Feedback)は,大規模言語モデル(LLM)の整合化に成功している。
我々は、長さバイアス軽減と長さ指示に従うモデルの性能を高めるために、$textbfR$esponse-$textbfc$onditioned $textbfB$radley-$textbfT$erry (Rc-BT)モデルを導入する。
また、報酬モデルと直接ポリシー最適化のためにRc-BTモデルを利用するRc-RMおよびRc-DPOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-02T14:50:25Z) - Implicit Reasoning in Deep Time Series Forecasting [16.750280337155647]
この研究は、ディープ時系列予測モデルの推論能力を評価するための最初の一歩を踏み出した。
系統的に編成されたアウト・オブ・ディストリビューションシナリオにおいて,ある線形なパッチベーストランスフォーマーモデルが効果的に一般化できることが判明した。
論文 参考訳(メタデータ) (2024-09-17T02:11:19Z) - Low-Rank Adaptation of Time Series Foundational Models for Out-of-Domain Modality Forecasting [5.354055742467354]
Low-Rank Adaptation (LoRA) は、様々なモダリティやタスクにまたがる大規模または基礎的なモデルを微調整する手法である。
本稿では,Lug-Llama,MOIRAI,Chronosといった現代時系列基盤モデルに対するLoRAの影響について検討する。
論文 参考訳(メタデータ) (2024-05-16T16:05:33Z) - A Large-Scale Evaluation of Speech Foundation Models [110.95827399522204]
音声処理ユニバーサルパフォーマンスベンチマーク(SUPERB)を構築し,基礎モデルパラダイムの有効性について検討する。
凍結基盤モデルを用いてSUPERBにおける音声処理タスクに対処する統合マルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T00:03:16Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。