論文の概要: CC-Time: Cross-Model and Cross-Modality Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2508.12235v1
- Date: Sun, 17 Aug 2025 04:31:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.628558
- Title: CC-Time: Cross-Model and Cross-Modality Time Series Forecasting
- Title(参考訳): CC-Time: クロスモデルとクロスモダリティの時系列予測
- Authors: Peng Chen, Yihang Wang, Yang Shu, Yunyao Cheng, Kai Zhao, Zhongwen Rao, Lujia Pan, Bin Yang, Chenjuan Guo,
- Abstract要約: 時系列予測のためのPLMを用いたクロスモデル・クロスモーダル学習(CC-Time)を提案する。
第1の側面では、CC-Timeは、時系列シーケンスと対応するテキスト記述の両方から、言語モデルにおける時間的依存とチャネル相関をモデル化するために、相互モダリティ学習を取り入れている。
第2の側面では、CC-Timeはさらに、PLMと時系列モデルからの知識を適応的に統合し、より包括的な時系列パターンのモデリングを形成するクロスモデル融合ブロックを提案する。
- 参考スコア(独自算出の注目度): 17.734609093955374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the success of pre-trained language models (PLMs) in various application fields beyond natural language processing, language models have raised emerging attention in the field of time series forecasting (TSF) and have shown great prospects. However, current PLM-based TSF methods still fail to achieve satisfactory prediction accuracy matching the strong sequential modeling power of language models. To address this issue, we propose Cross-Model and Cross-Modality Learning with PLMs for time series forecasting (CC-Time). We explore the potential of PLMs for time series forecasting from two aspects: 1) what time series features could be modeled by PLMs, and 2) whether relying solely on PLMs is sufficient for building time series models. In the first aspect, CC-Time incorporates cross-modality learning to model temporal dependency and channel correlations in the language model from both time series sequences and their corresponding text descriptions. In the second aspect, CC-Time further proposes the cross-model fusion block to adaptively integrate knowledge from the PLMs and time series model to form a more comprehensive modeling of time series patterns. Extensive experiments on nine real-world datasets demonstrate that CC-Time achieves state-of-the-art prediction accuracy in both full-data training and few-shot learning situations.
- Abstract(参考訳): 自然言語処理以外の様々な分野における事前学習言語モデル(PLM)の成功により、時系列予測(TSF)分野において言語モデルが注目され、大きな可能性を示している。
しかし,現在の PLM ベースの TSF 法では,言語モデルの強い逐次モデリング能力に適合する良好な予測精度が得られていない。
この問題に対処するために,時系列予測(CC-Time)のためのPLMを用いたクロスモデルとクロスモーダル学習を提案する。
時系列予測におけるPLMの可能性について,2つの側面から検討する。
1) PLM でモデル化できる時系列機能は何か。
2) PLMのみに依存しているかどうかは時系列モデルの構築に十分である。
第1の側面では、CC-Timeは、時系列シーケンスと対応するテキスト記述の両方から、言語モデルにおける時間的依存とチャネル相関をモデル化するために、相互モダリティ学習を取り入れている。
第2の側面では、CC-Timeはさらに、PLMと時系列モデルからの知識を適応的に統合し、より包括的な時系列パターンのモデリングを形成するクロスモデル融合ブロックを提案する。
9つの実世界のデータセットに対する大規模な実験は、CC-Timeがフルデータトレーニングと数ショットの学習状況の両方で最先端の予測精度を達成することを示した。
関連論文リスト
- Adapting LLMs to Time Series Forecasting via Temporal Heterogeneity Modeling and Semantic Alignment [32.41581846555808]
大規模言語モデル(LLM)は、最近、自然言語処理における印象的な能力を実証した。
時間的アライメントのモデル化と意味的アライメントの強化によりLLMに基づく予測を強化する統合フレームワークであるTALONを提案する。
7つの実世界のベンチマークの実験では、TALONはすべてのデータセットで優れたパフォーマンスを達成している。
論文 参考訳(メタデータ) (2025-08-10T06:06:19Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Adapting Large Language Models for Time Series Modeling via a Novel Parameter-efficient Adaptation Method [9.412920379798928]
時系列モデリングは多くの実世界のアプリケーションにおいて重要な意味を持つ。
我々は時系列と自然言語のモダリティを調整するためのTime-LlaMAフレームワークを提案する。
本稿では,提案手法がSOTA(State-of-the-art)性能を実現することを示す。
論文 参考訳(メタデータ) (2025-02-19T13:52:26Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。