論文の概要: Closing the Loop: A Control-Theoretic Framework for Provably Stable Time Series Forecasting with LLMs
- arxiv url: http://arxiv.org/abs/2602.12756v1
- Date: Fri, 13 Feb 2026 09:35:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.908862
- Title: Closing the Loop: A Control-Theoretic Framework for Provably Stable Time Series Forecasting with LLMs
- Title(参考訳): ループを閉じる: LLMによる安定した時系列予測のための制御理論フレームワーク
- Authors: Xingyu Zhang, Hanyun Du, Zeen Song, Jianqi Zhang, Changwen Zheng, Wenwen Qiang,
- Abstract要約: 大規模言語モデル(LLM)は、最近、時系列予測において例外的な可能性を示している。
既存のアプローチは通常、単純で自己回帰的な生成戦略を採用している。
我々は,新しいクローズドループフレームワークである textbfF-LLM を提案する。
- 参考スコア(独自算出の注目度): 22.486083545585984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have recently shown exceptional potential in time series forecasting, leveraging their inherent sequential reasoning capabilities to model complex temporal dynamics. However, existing approaches typically employ a naive autoregressive generation strategy. We identify a critical theoretical flaw in this paradigm: during inference, the model operates in an open-loop manner, consuming its own generated outputs recursively. This leads to inevitable error accumulation (exposure bias), where minor early deviations cascade into significant trajectory drift over long horizons. In this paper, we reformulate autoregressive forecasting through the lens of control theory, proposing \textbf{F-LLM} (Feedback-driven LLM), a novel closed-loop framework. Unlike standard methods that passively propagate errors, F-LLM actively stabilizes the trajectory via a learnable residual estimator (Observer) and a feedback controller. Furthermore, we provide a theoretical guarantee that our closed-loop mechanism ensures uniformly bounded error, provided the base model satisfies a local Lipschitz constraint. Extensive experiments demonstrate that F-LLM significantly mitigates error propagation, achieving good performance on time series benchmarks.
- Abstract(参考訳): 大規模言語モデル(LLM)は最近、時系列予測において例外的なポテンシャルを示し、その固有のシーケンシャル推論能力を活用して、複雑な時間的ダイナミクスをモデル化している。
しかし、既存のアプローチは通常、単純で自己回帰的な生成戦略を採用している。
推論中、モデルはオープンループ方式で動作し、生成した出力を再帰的に消費する。
これは避けられない誤りの蓄積(露光バイアス)を引き起こし、小さな初期偏差がカスケードを長い地平線上で大きな軌道の漂流に導く。
本稿では,新しい閉ループフレームワークであるtextbf{F-LLM} (Feedback-driven LLM)を提案する。
エラーを受動的に伝播する標準的な方法とは異なり、F-LLMは学習可能な残留推定器(Observer)とフィードバックコントローラを介して軌道を積極的に安定化する。
さらに,ベースモデルが局所リプシッツ制約を満たす場合,閉ループ機構が一様有界誤差を保証することを理論的に保証する。
大規模な実験により、F-LLMはエラーの伝播を著しく軽減し、時系列ベンチマークで優れた性能を発揮することが示された。
関連論文リスト
- From Observations to States: Latent Time Series Forecasting [65.98504021691666]
本稿では,TSFを観測回帰から潜時予測に移行する新しいパラダイムであるLatent Time Series Forecasting(LatentTSF)を提案する。
具体的には、LatentTSFはAutoEncoderを使用して、各段階での観測結果を高次元の潜在状態空間に投影する。
提案する潜伏目標は,予測潜伏状態と地道状態と観測値との相互情報を暗黙的に最大化する。
論文 参考訳(メタデータ) (2026-01-30T20:39:44Z) - Drift No More? Context Equilibria in Multi-Turn LLM Interactions [58.69551510148673]
コンテキストドリフト(Contexts drift)とは、ターン間のゴール一貫性のある振る舞いからモデルが出力する出力の段階的なばらつきである。
シングルターンエラーとは異なり、ドリフトは時間的に展開し、静的な評価指標では捉えにくい。
マルチターンドリフトは、避けられない崩壊というよりも、制御可能な平衡現象として理解できることを示す。
論文 参考訳(メタデータ) (2025-10-09T04:48:49Z) - ReNF: Rethinking the Design Space of Neural Long-Term Time Series Forecasters [48.79331759671512]
本稿では,提案手法の理論的基礎となるマルチプルニューラル予測定理を提案する。
自動回帰(AR)と直接出力(DO)の両方の利点を組み合わせた新しい予測戦略であるブースト・ダイレクト・アウトプット(BDO)を提案する。
論文 参考訳(メタデータ) (2025-09-30T08:05:59Z) - Stochastic Control for Fine-tuning Diffusion Models: Optimality, Regularity, and Convergence [19.484676783876306]
拡散モデルは生成モデリングの強力なツールとして登場してきた。
微調整拡散モデルのための制御フレームワークを提案する。
PI-FTは線形速度で大域収束することを示す。
論文 参考訳(メタデータ) (2024-12-24T04:55:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。