論文の概要: CC-Time: Cross-Model and Cross-Modality Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2508.12235v3
- Date: Sun, 28 Sep 2025 05:19:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 20:10:04.516922
- Title: CC-Time: Cross-Model and Cross-Modality Time Series Forecasting
- Title(参考訳): CC-Time: クロスモデルとクロスモダリティの時系列予測
- Authors: Peng Chen, Yihang Wang, Yang Shu, Yunyao Cheng, Kai Zhao, Zhongwen Rao, Lujia Pan, Bin Yang, Chenjuan Guo,
- Abstract要約: 時系列予測のためのPLMを用いたクロスモデル・クロスモーダル学習(CC-Time)を提案する。
第1の側面では、CC-Timeは、時系列シーケンスと対応するテキスト記述の両方から、言語モデルにおける時間的依存とチャネル相関をモデル化するために、相互モダリティ学習を取り入れている。
第2の側面では、CC-Timeはさらに、PLMと時系列モデルからの知識を適応的に統合し、より包括的な時系列パターンのモデリングを形成するクロスモデル融合ブロックを提案する。
- 参考スコア(独自算出の注目度): 24.3769011945143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the success of pre-trained language models (PLMs) in various application fields beyond natural language processing, language models have raised emerging attention in the field of time series forecasting (TSF) and have shown great prospects. However, current PLM-based TSF methods still fail to achieve satisfactory prediction accuracy matching the strong sequential modeling power of language models. To address this issue, we propose Cross-Model and Cross-Modality Learning with PLMs for time series forecasting (CC-Time). We explore the potential of PLMs for time series forecasting from two aspects: 1) what time series features could be modeled by PLMs, and 2) whether relying solely on PLMs is sufficient for building time series models. In the first aspect, CC-Time incorporates cross-modality learning to model temporal dependency and channel correlations in the language model from both time series sequences and their corresponding text descriptions. In the second aspect, CC-Time further proposes the cross-model fusion block to adaptively integrate knowledge from the PLMs and time series model to form a more comprehensive modeling of time series patterns. Extensive experiments on nine real-world datasets demonstrate that CC-Time achieves state-of-the-art prediction accuracy in both full-data training and few-shot learning situations.
- Abstract(参考訳): 自然言語処理以外の様々な分野における事前学習言語モデル(PLM)の成功により、時系列予測(TSF)分野において言語モデルが注目され、大きな可能性を示している。
しかし,現在の PLM ベースの TSF 法では,言語モデルの強い逐次モデリング能力に適合する良好な予測精度が得られていない。
この問題に対処するために,時系列予測(CC-Time)のためのPLMを用いたクロスモデルとクロスモーダル学習を提案する。
時系列予測におけるPLMの可能性について,2つの側面から検討する。
1) PLM でモデル化できる時系列機能は何か。
2) PLMのみに依存しているかどうかは時系列モデルの構築に十分である。
第1の側面では、CC-Timeは、時系列シーケンスと対応するテキスト記述の両方から、言語モデルにおける時間的依存とチャネル相関をモデル化するために、相互モダリティ学習を取り入れている。
第2の側面では、CC-Timeはさらに、PLMと時系列モデルからの知識を適応的に統合し、より包括的な時系列パターンのモデリングを形成するクロスモデル融合ブロックを提案する。
9つの実世界のデータセットに対する大規模な実験は、CC-Timeがフルデータトレーニングと数ショットの学習状況の両方で最先端の予測精度を達成することを示した。
関連論文リスト
- In-Context and Few-Shots Learning for Forecasting Time Series Data based on Large Language Models [0.0]
本稿では,LLMモデルを用いた時系列データ予測の性能について検討する。
OpenAI tt o4-mini と Gemini 2.5 Flash Lite を用いて,LLM をコンテキスト内,ゼロショット学習,少数ショット学習,時系列データの予測を通じてトレーニングする。
以上の結果から, TimesFMはRMSE値が0.3023, 競合推論時間が266秒で, 総合性能が最高であることが示唆された。
論文 参考訳(メタデータ) (2025-12-08T16:52:46Z) - Adapting LLMs to Time Series Forecasting via Temporal Heterogeneity Modeling and Semantic Alignment [32.41581846555808]
大規模言語モデル(LLM)は、最近、自然言語処理における印象的な能力を実証した。
時間的アライメントのモデル化と意味的アライメントの強化によりLLMに基づく予測を強化する統合フレームワークであるTALONを提案する。
7つの実世界のベンチマークの実験では、TALONはすべてのデータセットで優れたパフォーマンスを達成している。
論文 参考訳(メタデータ) (2025-08-10T06:06:19Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - Adapting Large Language Models for Time Series Modeling via a Novel Parameter-efficient Adaptation Method [9.412920379798928]
時系列モデリングは多くの実世界のアプリケーションにおいて重要な意味を持つ。
我々は時系列と自然言語のモダリティを調整するためのTime-LlaMAフレームワークを提案する。
本稿では,提案手法がSOTA(State-of-the-art)性能を実現することを示す。
論文 参考訳(メタデータ) (2025-02-19T13:52:26Z) - TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。