論文の概要: Conversational Time Series Foundation Models: Towards Explainable and Effective Forecasting
- arxiv url: http://arxiv.org/abs/2512.16022v1
- Date: Wed, 17 Dec 2025 23:14:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.847351
- Title: Conversational Time Series Foundation Models: Towards Explainable and Effective Forecasting
- Title(参考訳): 対話型時系列基礎モデル - 説明可能かつ効果的な予測に向けて-
- Authors: Defu Cao, Michael Gee, Jinbo Liu, Hengxuan Wang, Wei Yang, Rui Wang, Yan Liu,
- Abstract要約: 大規模言語モデル(LLM)は強力な推論機能を提供するが、時系列予測への直接適用は効果がないことが証明されている。
SHAPに基づく忠実度スコアによって導かれるR1スタイルの微調整プロセスを導入し,重みを意味のある因果文として解釈するモデルを指導する。
提案手法は,CRPSとMASEの両指標において,先行時系列基礎モデルよりも有意に優れていた。
- 参考スコア(独自算出の注目度): 13.958506262265871
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The proliferation of time series foundation models has created a landscape where no single method achieves consistent superiority, framing the central challenge not as finding the best model, but as orchestrating an optimal ensemble with interpretability. While Large Language Models (LLMs) offer powerful reasoning capabilities, their direct application to time series forecasting has proven ineffective. We address this gap by repositioning the LLM as an intelligent judge that evaluates, explains, and strategically coordinates an ensemble of foundation models. To overcome the LLM's inherent lack of domain-specific knowledge on time series, we introduce an R1-style finetuning process, guided by SHAP-based faithfulness scores, which teaches the model to interpret ensemble weights as meaningful causal statements about temporal dynamics. The trained agent then engages in iterative, multi-turn conversations to perform forward-looking assessments, provide causally-grounded explanations for its weighting decisions, and adaptively refine the optimization strategy. Validated on the GIFT-Eval benchmark on 23 datasets across 97 settings, our approach significantly outperforms leading time series foundation models on both CRPS and MASE metrics, establishing new state-of-the-art results.
- Abstract(参考訳): 時系列基礎モデルの拡散は、一つの手法が一貫した優位性を達成せず、最良のモデルを見つけることではなく、解釈可能性を伴う最適なアンサンブルを編成することという中心的な課題をフレーミングする風景を生み出した。
大規模言語モデル(LLM)は強力な推論機能を提供するが、時系列予測への直接適用は効果がないことが証明されている。
我々はLLMを、基礎モデルのアンサンブルを評価し、説明し、戦略的にコーディネートするインテリジェントな判断として再配置することで、このギャップに対処する。
時系列上でのLLM固有のドメイン固有知識の欠如を克服するために、SHAPに基づく忠実度スコアによって導かれるR1スタイルの微調整プロセスを導入する。
訓練されたエージェントは、前向きのアセスメントを実行するために反復的なマルチターン会話を行い、重み付けの決定について因果的な説明を提供し、最適化戦略を適応的に洗練する。
97設定の23データセットのGIFT-Evalベンチマークで検証した結果,CRPSとMASEの両指標の時系列基盤モデルよりも大幅に向上し,新たな最先端結果が得られた。
関連論文リスト
- Characteristic Root Analysis and Regularization for Linear Time Series Forecasting [9.254995889539716]
時系列予測は多くの領域において重要な課題である。
近年の研究では、単純な線形モデルの驚くほどの競争性が強調されている。
本稿では時間力学における特性根の役割に焦点を当てる。
論文 参考訳(メタデータ) (2025-09-28T03:06:30Z) - ARIES: Relation Assessment and Model Recommendation for Deep Time Series Forecasting [54.57031153712623]
ARIESは時系列特性とモデリング戦略の関係を評価するためのフレームワークである。
実世界の時系列に解釈可能な提案を提供することのできる,最初の深層予測モデルレコメンデータを提案する。
論文 参考訳(メタデータ) (2025-09-07T13:57:14Z) - WSM: Decay-Free Learning Rate Schedule via Checkpoint Merging for LLM Pre-training [64.0932926819307]
本稿では,学習速度減衰とモデルマージの正式な関係を確立するフレームワークであるWarmup-Stable and Merge(WSM)を紹介する。
WSMは様々な崩壊戦略をエミュレートするための統一された理論基盤を提供する。
私たちのフレームワークは、複数のベンチマークで広く採用されているWarmup-Stable-Decay(WSD)アプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-07-23T16:02:06Z) - Enhancing LLM Reasoning for Time Series Classification by Tailored Thinking and Fused Decision [8.256998757769322]
ReasonTSC は時系列分類のための LLM 推論を活用するために設計されたフレームワークである。
時系列データの本質的な特性について、モデルを熟考する。
これは、例えばドメイン固有の時系列モデルのようなプラグイン分類器からの予測と信頼スコアを、インコンテキストの例として統合する。
論文 参考訳(メタデータ) (2025-06-01T03:15:54Z) - Relative Overfitting and Accept-Reject Framework [5.465098504510676]
本稿では,性能向上のためにモデルをセグメント化する方法を管理するアンサンブルフレームワークを提案する。
NLPの領域におけるこのフレームワークのパターンを詳述し、コンピュータビジョン(CV)や科学のためのAIなど他の分野に簡単に説明します。
論文 参考訳(メタデータ) (2025-05-12T17:36:14Z) - Disentangling Length Bias In Preference Learning Via Response-Conditioned Modeling [87.17041933863041]
RLHF(Reinforcement Learning from Human Feedback)は,大規模言語モデル(LLM)の整合化に成功している。
我々は、長さバイアス軽減と長さ指示に従うモデルの性能を高めるために、$textbfR$esponse-$textbfc$onditioned $textbfB$radley-$textbfT$erry (Rc-BT)モデルを導入する。
また、報酬モデルと直接ポリシー最適化のためにRc-BTモデルを利用するRc-RMおよびRc-DPOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-02T14:50:25Z) - Implicit Reasoning in Deep Time Series Forecasting [16.750280337155647]
この研究は、ディープ時系列予測モデルの推論能力を評価するための最初の一歩を踏み出した。
系統的に編成されたアウト・オブ・ディストリビューションシナリオにおいて,ある線形なパッチベーストランスフォーマーモデルが効果的に一般化できることが判明した。
論文 参考訳(メタデータ) (2024-09-17T02:11:19Z) - Low-Rank Adaptation of Time Series Foundational Models for Out-of-Domain Modality Forecasting [5.354055742467354]
Low-Rank Adaptation (LoRA) は、様々なモダリティやタスクにまたがる大規模または基礎的なモデルを微調整する手法である。
本稿では,Lug-Llama,MOIRAI,Chronosといった現代時系列基盤モデルに対するLoRAの影響について検討する。
論文 参考訳(メタデータ) (2024-05-16T16:05:33Z) - A Large-Scale Evaluation of Speech Foundation Models [110.95827399522204]
音声処理ユニバーサルパフォーマンスベンチマーク(SUPERB)を構築し,基礎モデルパラダイムの有効性について検討する。
凍結基盤モデルを用いてSUPERBにおける音声処理タスクに対処する統合マルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T00:03:16Z) - Embedded feature selection in LSTM networks with multi-objective
evolutionary ensemble learning for time series forecasting [49.1574468325115]
本稿では,Long Short-Term Memory Networkに埋め込まれた特徴選択手法を提案する。
本手法はLSTMの重みと偏りを分割的に最適化する。
イタリアとスペイン南東部の大気質時系列データの実験的評価により,従来のLSTMの能力一般化が著しく向上することが確認された。
論文 参考訳(メタデータ) (2023-12-29T08:42:10Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。