論文の概要: ChronoSteer: Bridging Large Language Model and Time Series Foundation Model via Synthetic Data
- arxiv url: http://arxiv.org/abs/2505.10083v1
- Date: Thu, 15 May 2025 08:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.247885
- Title: ChronoSteer: Bridging Large Language Model and Time Series Foundation Model via Synthetic Data
- Title(参考訳): ChronoSteer: 合成データによる大規模言語モデルと時系列基礎モデルのブリッジ
- Authors: Chengsen Wang, Qi Qi, Zhongwen Rao, Lujia Pan, Jingyu Wang, Jianxin Liao,
- Abstract要約: 我々はChronoSteerを紹介した。ChronoSteerはマルチモーダルTSFMであり、テキストのリビジョン命令で操作できる。
クロスモーダルな命令系列ペアデータ不足を軽減するため,合成データに基づく2段階のトレーニング戦略を考案した。
ChronoSteerは、前回の最先端マルチモーダル法よりも25.7%の精度で予測精度が向上し、22.5%も向上した。
- 参考スコア(独自算出の注目度): 22.81326423408988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional forecasting methods rely on unimodal time series data, limiting their ability to exploit rich textual information. Recently, large language models (LLMs) and time series foundation models (TSFMs) have demonstrated powerful capability in textual reasoning and temporal modeling, respectively. Integrating the strengths of both to construct a multimodal model that concurrently leverages both temporal and textual information for future inference has emerged as a critical research challenge. To address the scarcity of event-series paired data, we propose a decoupled framework: an LLM is employed to transform textual events into revision instructions, which are then used to steer the output of TSFM. To implement this framework, we introduce ChronoSteer, a multimodal TSFM that can be steered through textual revision instructions, effectively bridging LLM and TSFM. Moreover, to mitigate the shortage of cross-modal instruction-series paired data, we devise a two-stage training strategy based on synthetic data. In addition, we also construct a high-quality multimodal time series forecasting benchmark to address the information leakage concerns during evaluation. After integrating with an LLM, ChronoSteer, which is trained exclusively on synthetic data, achieves a 25.7% improvement in prediction accuracy compared to the unimodal backbone and a 22.5% gain over the previous state-of-the-art multimodal method.
- Abstract(参考訳): 従来の予測手法は時系列データに依存しており、リッチなテキスト情報を利用する能力を制限している。
近年,大言語モデル (LLMs) と時系列基礎モデル (TSFMs) は,それぞれテキスト推論と時間モデルにおいて強力な能力を示している。
時間的およびテキスト的情報を同時に活用するマルチモーダルモデルの構築という両モデルの強みを統合することが,重要な研究課題となっている。
LLMはテキストイベントをリビジョン命令に変換するために使用され、TSFMの出力を制御するために使用される。
このフレームワークを実装するために,テキストの書き直し命令で操作できるマルチモーダルTSFMであるChronoSteerを導入し,LLMとTSFMを効果的にブリッジする。
さらに、クロスモーダルな命令系列ペアデータ不足を軽減するため、合成データに基づく2段階のトレーニング戦略を考案した。
また,評価中の情報漏洩問題に対処するため,高品質なマルチモーダル時系列予測ベンチマークを構築した。
LLMと統合した後、ChronoSteerは合成データのみに訓練され、単調なバックボーンと比較して予測精度が25.7%向上し、従来の最先端マルチモーダル法よりも22.5%向上した。
関連論文リスト
- LLM-Prompt: Integrated Heterogeneous Prompts for Unlocking LLMs in Time Series Forecasting [4.881217428928315]
時系列予測は、変数間の時間的依存関係を将来の状態推論のためにモデル化することを目的としている。
近年の研究では,大規模言語モデル (LLM) が時系列予測において有望な性能を達成することが示されている。
マルチプロンプト情報とモーダル間セマンティックアライメントを組み合わせたLLMベースの時系列予測フレームワークLLM-Promptを提案する。
論文 参考訳(メタデータ) (2025-06-21T08:22:25Z) - Does Multimodality Lead to Better Time Series Forecasting? [84.74978289870155]
このようなマルチモーダル積分がどのような条件で常に得られるかは、まだ不明である。
本稿では,時系列とテキスト表現をアライメントするアライメント・ベース・メソッドと,予測のための大規模言語モデルを直接促進するプロンプト・ベース・メソッドの2つの一般的なマルチモーダル予測パラダイムを評価する。
その結果,1)高容量テキストモデル,(2)比較的弱い時系列モデル,(3)適切な整合戦略などにより,テキスト情報を組み込むことが最も有用であることが示唆された。
論文 参考訳(メタデータ) (2025-06-20T23:55:56Z) - DanmakuTPPBench: A Multi-modal Benchmark for Temporal Point Process Modeling and Understanding [17.450031813318965]
本稿では,マルチモーダル・テンポラル・ポイント・プロセス(TPP)モデリングの進歩を目的としたベンチマークであるDanmakuTPPBenchを紹介する。
TPPは時間的事象系列をモデル化するために広く研究されてきたが、既存のデータセットは概ね非モーダルである。
我々のベンチマークは、強力なベースラインを確立し、マルチモーダル言語モデリングランドスケープへのTPPモデリングのさらなる統合を要求する。
論文 参考訳(メタデータ) (2025-05-23T22:38:28Z) - Dual-Forecaster: A Multimodal Time Series Model Integrating Descriptive and Predictive Texts [5.873261646876953]
本稿では,記述的歴史的テキスト情報と予測的テキストインサイトを組み合わせたマルチモーダル時系列モデルであるDual-Forecasterを提案する。
15のマルチモーダル時系列データセットに対する包括的評価は、Dual-Forecasterが明らかに有効なマルチモーダル時系列モデルであることを示している。
論文 参考訳(メタデータ) (2025-05-02T09:24:31Z) - Multimodal Conditioned Diffusive Time Series Forecasting [16.72476672866356]
時系列予測(TSF)のためのマルチモーダル条件付き拡散モデルを提案する。
タイムスタンプとテキストを組み合わせて、異なるデータポイント間の時間的および意味的な相関を確立する。
実世界のベンチマークデータセットの実験では、提案したMCD-TSFモデルが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-28T10:56:23Z) - Explainable Multi-modal Time Series Prediction with LLM-in-the-Loop [63.34626300024294]
TimeXLはプロトタイプベースの時系列エンコーダを統合するマルチモーダル予測フレームワークである。
より正確な予測と解釈可能な説明を生成する。
4つの実世界のデータセットに対する実証的な評価は、TimeXLがAUCで最大8.9%の改善を達成していることを示している。
論文 参考訳(メタデータ) (2025-03-02T20:40:53Z) - TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - TempoGPT: Enhancing Time Series Reasoning via Quantizing Embedding [13.996105878417204]
本稿では,マルチモーダル時系列データ構築手法とマルチモーダル時系列言語モデル(TLM, TempoGPT)を提案する。
ホワイトボックスシステム内の変数-システム関係を解析することにより,複雑な推論タスクのためのマルチモーダルデータを構築する。
広範な実験により、TempoGPTは時間的情報を正確に知覚し、結論を論理的に推論し、構築された複雑な時系列推論タスクにおける最先端の処理を達成することが示されている。
論文 参考訳(メタデータ) (2025-01-13T13:47:05Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Metadata Matters for Time Series: Informative Forecasting with Transformers [70.38241681764738]
時系列予測のためのMetaTST(Metadata-informed Time Series Transformer)を提案する。
メタデータの非構造化の性質に取り組むため、MetaTSTは、事前に設計されたテンプレートによってそれらを自然言語に形式化する。
Transformerエンコーダは、メタデータ情報によるシーケンス表現を拡張するシリーズトークンとメタデータトークンの通信に使用される。
論文 参考訳(メタデータ) (2024-10-04T11:37:55Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。