論文の概要: QuiZSF: An efficient data-model interaction framework for zero-shot time-series forecasting
- arxiv url: http://arxiv.org/abs/2508.06915v1
- Date: Sat, 09 Aug 2025 09:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.612481
- Title: QuiZSF: An efficient data-model interaction framework for zero-shot time-series forecasting
- Title(参考訳): QuiZSF: ゼロショット時系列予測のための効率的なデータモデル相互作用フレームワーク
- Authors: Shichao Ma, Zhengyang Zhou, Qihe Huang, Binwu Wang, Kuo Yang, Huan Li, Yang Wang,
- Abstract要約: 提案するQuick Zero-Shot Time Series Forecaster (Quick Zero-Shot Time Series Forecaster) は,効率的な検索と表現学習,ZSFのモデル適応を両立する軽量かつモジュール化されたフレームワークである。
QuiZSFは、予測設定の75%と87.5%でトップ1にランクインし、メモリと推論時間では高い効率を維持している。
- 参考スコア(独自算出の注目度): 14.127685657874947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting has become increasingly important to empower diverse applications with streaming data. Zero-shot time-series forecasting (ZSF), particularly valuable in data-scarce scenarios, such as domain transfer or forecasting under extreme conditions, is difficult for traditional models to deal with. While time series pre-trained models (TSPMs) have demonstrated strong performance in ZSF, they often lack mechanisms to dynamically incorporate external knowledge. Fortunately, emerging retrieval-augmented generation (RAG) offers a promising path for injecting such knowledge on demand, yet they are rarely integrated with TSPMs. To leverage the strengths of both worlds, we introduce RAG into TSPMs to enhance zero-shot time series forecasting. In this paper, we propose QuiZSF (Quick Zero-Shot Time Series Forecaster), a lightweight and modular framework that couples efficient retrieval with representation learning and model adaptation for ZSF. Specifically, we construct a hierarchical tree-structured ChronoRAG Base (CRB) for scalable time-series storage and domain-aware retrieval, introduce a Multi-grained Series Interaction Learner (MSIL) to extract fine- and coarse-grained relational features, and develop a dual-branch Model Cooperation Coherer (MCC) that aligns retrieved knowledge with two kinds of TSPMs: Non-LLM based and LLM based. Compared with contemporary baselines, QuiZSF, with Non-LLM based and LLM based TSPMs as base model, respectively, ranks Top1 in 75% and 87.5% of prediction settings, while maintaining high efficiency in memory and inference time.
- Abstract(参考訳): 時系列予測は、ストリーミングデータで多様なアプリケーションを強化するためにますます重要になっている。
ゼロショット時系列予測(ZSF)は、ドメイン転送や極端な条件下での予測といったデータ共有シナリオで特に有用であり、従来のモデルでは対処が難しい。
時系列事前学習モデル(TSPM)は、ZSFにおいて強力な性能を示すが、外部知識を動的に組み込むメカニズムが欠如していることが多い。
幸運なことに、新しい検索強化世代(RAG)は、そうした知識を需要に注入するための有望な経路を提供するが、TSPMと統合されることは滅多にない。
両世界の強みを活用するため,TSPMにRAGを導入し,ゼロショット時系列予測を強化した。
本稿では,効率的な検索と表現学習,ZSFのモデル適応を両立させる軽量かつモジュール化されたフレームワークであるQuick Zero-Shot Time Series Forecasterを提案する。
具体的には、スケーラブルな時系列記憶とドメイン認識検索のための階層的木構造ChronoRAG Base(CRB)を構築し、細粒度および粗粒度関係特徴を抽出するMulti-fine Series Interaction Learner(MSIL)を導入し、検索した知識を2種類のTSPM(Non-LLMベースおよびLLMベース)と整列するMCC(Double-branch Model Cooperation Coherer)を開発する。
現代のベースラインと比較すると、QuiZSFはNon-LLMベースのTSPMとLLMベースのTSPMをベースモデルとして、それぞれ75%と87.5%の予測設定でトップ1にランク付けし、メモリと推論時間の高効率を維持している。
関連論文リスト
- LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - TS-RAG: Retrieval-Augmented Generation based Time Series Foundation Models are Stronger Zero-Shot Forecaster [14.512119661418522]
時系列予測のための検索拡張生成フレームワークTS-RAGを提案する。
具体的には、TS-RAGはトレーニング済みの時系列エンコーダを利用して、専用の知識ベースから意味的に関連するセグメントを検索する。
TS-RAG は最先端のゼロショット予測性能を達成し,既存の TSFM を6.84% まで上回った。
論文 参考訳(メタデータ) (2025-03-06T16:48:48Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Reprogramming Foundational Large Language Models(LLMs) for Enterprise Adoption for Spatio-Temporal Forecasting Applications: Unveiling a New Era in Copilot-Guided Cross-Modal Time Series Representation Learning [0.0]
パティオ時間予測は、輸送システム、物流、サプライチェーン管理など、様々な分野において重要な役割を担っている。
本稿では,オープンソースの大規模・小規模言語モデル(LLM,LM)と従来の予測手法を組み合わせたハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2024-08-26T16:11:53Z) - TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment [21.690191536424567]
TimeCMAは、時系列予測のための直感的で効果的なフレームワークである。
8つの実際のデータセットに対する大規模な実験は、TimeCMAが最先端のデータセットを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-03T00:27:29Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。