論文の概要: Enhancing few-shot time series forecasting with LLM-guided diffusion
- arxiv url: http://arxiv.org/abs/2602.00040v1
- Date: Mon, 19 Jan 2026 06:30:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.252245
- Title: Enhancing few-shot time series forecasting with LLM-guided diffusion
- Title(参考訳): LLM誘導拡散による数ショット時系列予測の強化
- Authors: Haonan Shi, Dehua Shuai, Liming Wang, Xiyang Liu, Long Tian,
- Abstract要約: 専門分野における時系列予測は、データ可用性の制限によって制約されることが多い。
本稿では,大言語モデルの表現力と拡散モデルの生成能力を統合する新しい学習フレームワークLTSM-DIFFを提案する。
我々の研究はデータ不足下での時系列解析の新しいパラダイムを確立する。
- 参考スコア(独自算出の注目度): 12.286204074670236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting in specialized domains is often constrained by limited data availability, where conventional models typically require large-scale datasets to effectively capture underlying temporal dynamics. To tackle this few-shot challenge, we propose LTSM-DIFF (Large-scale Temporal Sequential Memory with Diffusion), a novel learning framework that integrates the expressive power of large language models with the generative capability of diffusion models. Specifically, the LTSM module is fine-tuned and employed as a temporal memory mechanism, extracting rich sequential representations even under data-scarce conditions. These representations are then utilized as conditional guidance for a joint probability diffusion process, enabling refined modeling of complex temporal patterns. This design allows knowledge transfer from the language domain to time series tasks, substantially enhancing both generalization and robustness. Extensive experiments across diverse benchmarks demonstrate that LTSM-DIFF consistently achieves state-of-the-art performance in data-rich scenarios, while also delivering significant improvements in few-shot forecasting. Our work establishes a new paradigm for time series analysis under data scarcity.
- Abstract(参考訳): 特定の領域における時系列予測は、典型的には、基礎となる時間的ダイナミクスを効果的に捉えるために大規模なデータセットを必要とする、限られたデータ可用性によって制約されることが多い。
この課題に対処するために,大言語モデルの表現力と拡散モデルの生成能力を統合する新しい学習フレームワークであるLTSM-DIFFを提案する。
具体的には、LTSMモジュールを微調整し、時間記憶機構として使用し、データスカース条件下でもリッチなシーケンシャルな表現を抽出する。
これらの表現は、結合確率拡散過程の条件付きガイダンスとして利用され、複雑な時間パターンの洗練されたモデリングを可能にする。
この設計は、言語領域から時系列タスクへの知識伝達を可能にし、一般化と堅牢性の両方を大幅に強化する。
さまざまなベンチマークにわたる大規模な実験により、LTSM-DIFFは、データリッチなシナリオにおける最先端のパフォーマンスを一貫して達成し、また、数ショットの予測でも大幅に改善されていることが示されている。
我々の研究はデータ不足下での時系列解析の新しいパラダイムを確立する。
関連論文リスト
- UniDiff: A Unified Diffusion Framework for Multimodal Time Series Forecasting [90.47915032778366]
マルチモーダル時系列予測のための統合拡散フレームワークUniDiffを提案する。
コアには統一的で並列な融合モジュールがあり、単一のクロスアテンション機構がタイムスタンプからの構造化情報とテキストからのセマンティックコンテキストを統合する。
8つの領域にわたる実世界のベンチマークデータセットの実験は、提案したUniDiffモデルが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-12-08T05:36:14Z) - SEMPO: Lightweight Foundation Models for Time Series Forecasting [45.456949943052116]
SEMPOは比較的小規模なデータに対する事前トレーニングを必要とする軽量な基礎モデルであるが、強い時系列予測を示す。
SEMPOは、1)エネルギーを意識したSpEctral分解モジュールと、事前学習データの利用を大幅に改善する2つの重要なモジュールから構成される。
16のデータセットをカバーする2つの大規模ベンチマークの実験は、ゼロショットと少数ショットの予測シナリオの両方でSEMPOの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-10-22T15:58:44Z) - LLM4FTS: Enhancing Large Language Models for Financial Time Series Prediction [0.0]
従来の機械学習モデルは、制限されたモデル容量に制約された予測タスクに制限を示す。
我々は、学習可能なパッチセグメンテーションと動的ウェーブレット畳み込みモジュールによる時間的シーケンスモデリングを強化する新しいフレームワークLLM4FTS$を提案する。
実世界の金融データセットの実験は、このフレームワークの有効性を実証し、複雑な市場パターンを捉える上で優れたパフォーマンスを示し、ストックリターン予測の最先端結果を達成する。
論文 参考訳(メタデータ) (2025-05-05T06:48:34Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - TimeLDM: Latent Diffusion Model for Unconditional Time Series Generation [2.4454605633840143]
時系列生成は意思決定システムにおいて重要な研究課題である。
最近のアプローチでは、時系列情報をモデル化するために、データ空間での学習に焦点を当てている。
高品質な時系列生成のための新しい遅延拡散モデルであるTimeLDMを提案する。
論文 参考訳(メタデータ) (2024-07-05T01:47:20Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。