論文の概要: BALM-TSF: Balanced Multimodal Alignment for LLM-Based Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2509.00622v1
- Date: Sat, 30 Aug 2025 22:31:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.30776
- Title: BALM-TSF: Balanced Multimodal Alignment for LLM-Based Time Series Forecasting
- Title(参考訳): BALM-TSF:LLMに基づく時系列予測のためのバランスの取れたマルチモーダルアライメント
- Authors: Shiqiao Zhou, Holger Schöner, Huanbo Lyu, Edouard Fouché, Shuo Wang,
- Abstract要約: BALM-TSFは時系列予測のための軽量フレームワークである。
時系列とテキスト埋め込みのバランスを維持する。
長期および少数ショットの予測において、最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 5.360725360679271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is a long-standing and highly challenging research topic. Recently, driven by the rise of large language models (LLMs), research has increasingly shifted from purely time series methods toward harnessing textual modalities to enhance forecasting performance. However, the vast discrepancy between text and temporal data often leads current multimodal architectures to over-emphasise one modality while neglecting the other, resulting in information loss that harms forecasting performance. To address this modality imbalance, we introduce BALM-TSF (Balanced Multimodal Alignment for LLM-Based Time Series Forecasting), a lightweight time series forecasting framework that maintains balance between the two modalities. Specifically, raw time series are processed by the time series encoder, while descriptive statistics of raw time series are fed to an LLM with learnable prompt, producing compact textual embeddings. To ensure balanced cross-modal context alignment of time series and textual embeddings, a simple yet effective scaling strategy combined with a contrastive objective then maps these textual embeddings into the latent space of the time series embeddings. Finally, the aligned textual semantic embeddings and time series embeddings are together integrated for forecasting. Extensive experiments on standard benchmarks show that, with minimal trainable parameters, BALM-TSF achieves state-of-the-art performance in both long-term and few-shot forecasting, confirming its ability to harness complementary information from text and time series. Code is available at https://github.com/ShiqiaoZhou/BALM-TSF.
- Abstract(参考訳): 時系列予測は長く、非常に挑戦的な研究トピックである。
近年,大規模言語モデル (LLMs) の台頭を契機に,テキストのモーダル性を活用して予測性能を向上させるため,純粋に時系列の手法へと研究が移りつつある。
しかし、テキストと時間データの大きな相違は、しばしば現在のマルチモーダルアーキテクチャは、一方を無視しながら一方のモダリティを過度に強調し、その結果、予測性能に影響を及ぼす情報損失をもたらす。
このモダリティの不均衡に対処するために,両モード間のバランスを維持する軽量時系列予測フレームワークBALM-TSF(Balanced Multimodal Alignment for LLM-Based Time Series Forecasting)を導入する。
具体的には、生の時系列を時系列エンコーダで処理し、生の時系列の記述統計を学習可能なプロンプトでLLMに供給し、コンパクトなテキスト埋め込みを生成する。
時系列とテキスト埋め込みのバランスのとれたコンテキストアライメントを確保するため、単純なスケーリング戦略と対照的な目的を組み合わせることで、これらのテキスト埋め込みを時系列埋め込みの潜在空間にマッピングする。
最後に、アライメントされたテキストセマンティック埋め込みと時系列埋め込みを統合して予測する。
標準ベンチマークでの大規模な実験により、BALM-TSFはトレーニング可能なパラメータを最小限に抑え、長期および少数ショットの予測において最先端のパフォーマンスを達成し、テキストと時系列からの補完的な情報を活用できることが確認された。
コードはhttps://github.com/ShiqiaoZhou/BALM-TSFで公開されている。
関連論文リスト
- Time-Prompt: Integrated Heterogeneous Prompts for Unlocking LLMs in Time Series Forecasting [4.881217428928315]
時系列予測は、変数間の時間的依存関係を将来の状態推論のためにモデル化することを目的としている。
近年の研究では,大規模言語モデル (LLM) が時系列予測において有望な性能を達成することが示されている。
マルチプロンプト情報とモーダル間セマンティックアライメントを組み合わせたLLMベースの時系列予測フレームワークLLM-Promptを提案する。
論文 参考訳(メタデータ) (2025-06-21T08:22:25Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(TaTS)は、既存の数値のみの時系列モデルにプラグインできる。
TaTSはモデルアーキテクチャを変更することなく予測性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment [21.690191536424567]
TimeCMAは、時系列予測のための直感的で効果的なフレームワークである。
8つの実際のデータセットに対する大規模な実験は、TimeCMAが最先端のデータセットを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-03T00:27:29Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。