論文の概要: ChronoSteer: Bridging Large Language Model and Time Series Foundation Model via Synthetic Data
- arxiv url: http://arxiv.org/abs/2505.10083v1
- Date: Thu, 15 May 2025 08:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.247885
- Title: ChronoSteer: Bridging Large Language Model and Time Series Foundation Model via Synthetic Data
- Title(参考訳): ChronoSteer: 合成データによる大規模言語モデルと時系列基礎モデルのブリッジ
- Authors: Chengsen Wang, Qi Qi, Zhongwen Rao, Lujia Pan, Jingyu Wang, Jianxin Liao,
- Abstract要約: 我々はChronoSteerを紹介した。ChronoSteerはマルチモーダルTSFMであり、テキストのリビジョン命令で操作できる。
クロスモーダルな命令系列ペアデータ不足を軽減するため,合成データに基づく2段階のトレーニング戦略を考案した。
ChronoSteerは、前回の最先端マルチモーダル法よりも25.7%の精度で予測精度が向上し、22.5%も向上した。
- 参考スコア(独自算出の注目度): 22.81326423408988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional forecasting methods rely on unimodal time series data, limiting their ability to exploit rich textual information. Recently, large language models (LLMs) and time series foundation models (TSFMs) have demonstrated powerful capability in textual reasoning and temporal modeling, respectively. Integrating the strengths of both to construct a multimodal model that concurrently leverages both temporal and textual information for future inference has emerged as a critical research challenge. To address the scarcity of event-series paired data, we propose a decoupled framework: an LLM is employed to transform textual events into revision instructions, which are then used to steer the output of TSFM. To implement this framework, we introduce ChronoSteer, a multimodal TSFM that can be steered through textual revision instructions, effectively bridging LLM and TSFM. Moreover, to mitigate the shortage of cross-modal instruction-series paired data, we devise a two-stage training strategy based on synthetic data. In addition, we also construct a high-quality multimodal time series forecasting benchmark to address the information leakage concerns during evaluation. After integrating with an LLM, ChronoSteer, which is trained exclusively on synthetic data, achieves a 25.7% improvement in prediction accuracy compared to the unimodal backbone and a 22.5% gain over the previous state-of-the-art multimodal method.
- Abstract(参考訳): 従来の予測手法は時系列データに依存しており、リッチなテキスト情報を利用する能力を制限している。
近年,大言語モデル (LLMs) と時系列基礎モデル (TSFMs) は,それぞれテキスト推論と時間モデルにおいて強力な能力を示している。
時間的およびテキスト的情報を同時に活用するマルチモーダルモデルの構築という両モデルの強みを統合することが,重要な研究課題となっている。
LLMはテキストイベントをリビジョン命令に変換するために使用され、TSFMの出力を制御するために使用される。
このフレームワークを実装するために,テキストの書き直し命令で操作できるマルチモーダルTSFMであるChronoSteerを導入し,LLMとTSFMを効果的にブリッジする。
さらに、クロスモーダルな命令系列ペアデータ不足を軽減するため、合成データに基づく2段階のトレーニング戦略を考案した。
また,評価中の情報漏洩問題に対処するため,高品質なマルチモーダル時系列予測ベンチマークを構築した。
LLMと統合した後、ChronoSteerは合成データのみに訓練され、単調なバックボーンと比較して予測精度が25.7%向上し、従来の最先端マルチモーダル法よりも22.5%向上した。
関連論文リスト
- Dual-Forecaster: A Multimodal Time Series Model Integrating Descriptive and Predictive Texts [5.873261646876953]
本稿では,記述的歴史的テキスト情報と予測的テキストインサイトを組み合わせたマルチモーダル時系列モデルであるDual-Forecasterを提案する。
15のマルチモーダル時系列データセットに対する包括的評価は、Dual-Forecasterが明らかに有効なマルチモーダル時系列モデルであることを示している。
論文 参考訳(メタデータ) (2025-05-02T09:24:31Z) - Multimodal Conditioned Diffusive Time Series Forecasting [16.72476672866356]
時系列予測(TSF)のためのマルチモーダル条件付き拡散モデルを提案する。
タイムスタンプとテキストを組み合わせて、異なるデータポイント間の時間的および意味的な相関を確立する。
実世界のベンチマークデータセットの実験では、提案したMCD-TSFモデルが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-28T10:56:23Z) - TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - TempoGPT: Enhancing Time Series Reasoning via Quantizing Embedding [13.996105878417204]
本稿では,マルチモーダル時系列データ構築手法とマルチモーダル時系列言語モデル(TLM, TempoGPT)を提案する。
ホワイトボックスシステム内の変数-システム関係を解析することにより,複雑な推論タスクのためのマルチモーダルデータを構築する。
広範な実験により、TempoGPTは時間的情報を正確に知覚し、結論を論理的に推論し、構築された複雑な時系列推論タスクにおける最先端の処理を達成することが示されている。
論文 参考訳(メタデータ) (2025-01-13T13:47:05Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。