論文の概要: MemCast: Memory-Driven Time Series Forecasting with Experience-Conditioned Reasoning
- arxiv url: http://arxiv.org/abs/2602.03164v1
- Date: Tue, 03 Feb 2026 06:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.284016
- Title: MemCast: Memory-Driven Time Series Forecasting with Experience-Conditioned Reasoning
- Title(参考訳): MemCast: メモリ駆動の時系列予測と経験則推論
- Authors: Xiaoyu Tao, Mingyue Cheng, Ze Guo, Shuo Yu, Yaguo Liu, Qi Liu, Shijin Wang,
- Abstract要約: 時系列予測(TSF)は多くの実世界のアプリケーションにおいて意思決定において重要な役割を果たす。
MemCastは、経験条件推論タスクとしてTSFを再構成する学習から記憶へのフレームワークである。
- 参考スコア(独自算出の注目度): 14.55564396232952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series forecasting (TSF) plays a critical role in decision-making for many real-world applications. Recently, LLM-based forecasters have made promising advancements. Despite their effectiveness, existing methods often lack explicit experience accumulation and continual evolution. In this work, we propose MemCast, a learning-to-memory framework that reformulates TSF as an experience-conditioned reasoning task. Specifically, we learn experience from the training set and organize it into a hierarchical memory. This is achieved by summarizing prediction results into historical patterns, distilling inference trajectories into reasoning wisdom, and inducing extracted temporal features into general laws. Furthermore, during inference, we leverage historical patterns to guide the reasoning process and utilize reasoning wisdom to select better trajectories, while general laws serve as criteria for reflective iteration. Additionally, to enable continual evolution, we design a dynamic confidence adaptation strategy that updates the confidence of individual entries without leaking the test set distribution. Extensive experiments on multiple datasets demonstrate that MemCast consistently outperforms previous methods, validating the effectiveness of our approach. Our code is available at https://github.com/Xiaoyu-Tao/MemCast-TS.
- Abstract(参考訳): 時系列予測(TSF)は多くの実世界のアプリケーションにおいて意思決定において重要な役割を果たす。
近年,LSMをベースとした予測装置が有望な進歩を遂げている。
その効果にもかかわらず、既存の方法は明示的な経験の蓄積と継続的な進化を欠いていることが多い。
本研究では,経験条件付き推論タスクとしてTSFを再構成する学習から記憶へのフレームワークであるMemCastを提案する。
具体的には、トレーニングセットから経験を学び、それを階層的なメモリに整理します。
これは、予測結果を歴史的パターンに要約し、推論軌跡を推論知恵に蒸留し、抽出した時間的特徴を一般的な法則に誘導することで達成される。
さらに、推論の過程では、歴史的パターンを活用して推論プロセスを導き、推論知恵を利用してより良い軌道を選択する一方、一般法則は反射反復の基準となる。
さらに、連続的な進化を可能にするために、テストセットの分布をリークすることなく、個々のエントリの信頼度を更新する動的信頼度適応戦略を設計する。
複数のデータセットに対する大規模な実験により、MemCastは従来手法よりも一貫して優れており、我々のアプローチの有効性が検証されている。
私たちのコードはhttps://github.com/Xiaoyu-Tao/MemCast-TS.comで利用可能です。
関連論文リスト
- FOREVER: Forgetting Curve-Inspired Memory Replay for Language Model Continual Learning [63.20028888397869]
FOREVER(FORgEtting curVe-inspired mEmory)は、リプレイスケジュールをモデル中心の時間の概念と整合させる新しいフレームワークである。
このアプローチに基づいて、ForeVERは、リプレイのタイミングを決定するための曲線ベースのリプレイスケジューラと、リプレイの方法を適応的に制御するインテンシティ対応の正規化機構を組み込んでいる。
論文 参考訳(メタデータ) (2026-01-07T13:55:14Z) - VITA: Zero-Shot Value Functions via Test-Time Adaptation of Vision-Language Models [49.78447737655287]
VITAはゼロショット値関数学習法であり、テスト時間適応によって両方の能力を増強する。
オフライン強化学習において,VITAのゼロショット値推定が報酬形成に有効であることを示す。
論文 参考訳(メタデータ) (2025-06-11T18:05:33Z) - Memory-enhanced Retrieval Augmentation for Long Video Understanding [91.7163732531159]
本稿では,メモリ強化型RAGベースの新しいアプローチであるMemVidを紹介する。
提案手法は,1) 全体的映像情報の記憶,2) メモリに基づくタスクの情報要求の推論,3) 情報要求に基づくクリティカルモーメントの検索,4) 最終回答を生成するための検索モーメントの抽出という4つの基本的なステップで機能する。
MemVid は LVLM 法と RAG 法に比較して, 効率と有効性を示す。
論文 参考訳(メタデータ) (2025-03-12T08:23:32Z) - Remember and Recall: Associative-Memory-based Trajectory Prediction [25.349986959111757]
我々は,人間の顕著な学習能力に触発された,フラグメンテッドメモリに基づく軌道予測(FMTP)モデルを提案する。
FMTPモデルは、情報冗長性を低減し、計算効率を向上させるために離散表現を用いる。
言語モデルに基づく高度な推論エンジンを開発し、これらの離散表現間の連想規則を深く学習する。
論文 参考訳(メタデータ) (2024-10-03T04:32:21Z) - Reason for Future, Act for Now: A Principled Framework for Autonomous
LLM Agents with Provable Sample Efficiency [53.8779374188643]
本稿では,推論と行動のオーケストレーションを行うための,証明可能な後悔の保証を備えた原則的枠組みを提案する。
具体的には、メモリバッファから学習する推論のためのプロンプトテンプレートを設計し、長い水平線上で将来の軌道を計画する。
各ステップにおいて、LLMエージェントは計画された軌跡の初期動作("act for now")を受け取り、収集したフィードバックをメモリバッファに格納し、推論ルーチンを再起動して、将来の軌跡を新しい状態から再設計する。
論文 参考訳(メタデータ) (2023-09-29T16:36:39Z) - Continual Learning with Strong Experience Replay [32.154995019080594]
SER(Strong Experience Replay)を用いたCL法を提案する。
SERは、メモリバッファから過去の経験を蒸留する以外に、現在のトレーニングデータに模倣された将来の経験を利用する。
複数の画像分類データセットによる実験結果から,SER法が最先端の手法をはるかに上回ることがわかった。
論文 参考訳(メタデータ) (2023-05-23T02:42:54Z) - Convergence Results For Q-Learning With Experience Replay [51.11953997546418]
コンバージェンスレート保証を行い、リプレイの頻度や回数といった重要なパラメータによってQ-ラーニングのコンバージェンスとどのように比較されるかについて議論する。
また、シンプルなMDPのクラスを導入・分析することで、これを厳格に改善する可能性を示す理論的な証拠も提示する。
論文 参考訳(メタデータ) (2021-12-08T10:22:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。