論文の概要: Adapting LLMs to Time Series Forecasting via Temporal Heterogeneity Modeling and Semantic Alignment
- arxiv url: http://arxiv.org/abs/2508.07195v1
- Date: Sun, 10 Aug 2025 06:06:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.747383
- Title: Adapting LLMs to Time Series Forecasting via Temporal Heterogeneity Modeling and Semantic Alignment
- Title(参考訳): 時間的不均一性モデリングとセマンティックアライメントによるLCMの時系列予測への適応
- Authors: Yanru Sun, Emadeldeen Eldele, Zongxia Xie, Yucheng Wang, Wenzhe Niu, Qinghua Hu, Chee Keong Kwoh, Min Wu,
- Abstract要約: 大規模言語モデル(LLM)は、最近、自然言語処理における印象的な能力を実証した。
時間的アライメントのモデル化と意味的アライメントの強化によりLLMに基づく予測を強化する統合フレームワークであるTALONを提案する。
7つの実世界のベンチマークの実験では、TALONはすべてのデータセットで優れたパフォーマンスを達成している。
- 参考スコア(独自算出の注目度): 32.41581846555808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have recently demonstrated impressive capabilities in natural language processing due to their strong generalization and sequence modeling capabilities. However, their direct application to time series forecasting remains challenging due to two fundamental issues: the inherent heterogeneity of temporal patterns and the modality gap between continuous numerical signals and discrete language representations. In this work, we propose TALON, a unified framework that enhances LLM-based forecasting by modeling temporal heterogeneity and enforcing semantic alignment. Specifically, we design a Heterogeneous Temporal Encoder that partitions multivariate time series into structurally coherent segments, enabling localized expert modeling across diverse temporal patterns. To bridge the modality gap, we introduce a Semantic Alignment Module that aligns temporal features with LLM-compatible representations, enabling effective integration of time series into language-based models while eliminating the need for handcrafted prompts during inference. Extensive experiments on seven real-world benchmarks demonstrate that TALON achieves superior performance across all datasets, with average MSE improvements of up to 11\% over recent state-of-the-art methods. These results underscore the effectiveness of incorporating both pattern-aware and semantic-aware designs when adapting LLMs for time series forecasting. The code is available at: https://github.com/syrGitHub/TALON.
- Abstract(参考訳): 大規模言語モデル(LLM)は、その強力な一般化とシーケンスモデリング能力により、最近、自然言語処理において印象的な能力を示した。
しかしながら、時系列予測へのそれらの直接的な適用は、時間的パターンの固有の不均一性と、連続的な数値信号と離散言語表現の間のモダリティギャップという2つの根本的な問題により、依然として困難である。
本研究では、時間的不均一性をモデル化し、セマンティックアライメントを強制することによって、LLMに基づく予測を強化する統合フレームワークであるTALONを提案する。
具体的には、多変量時系列を構造的に整合したセグメントに分割する異種時空間エンコーダを設計し、多変時間パターン間の局所的専門家モデリングを可能にする。
モーダルギャップを埋めるため,時間的特徴をLLM互換表現と整合させるセマンティックアライメントモジュールを導入し,推論中に手作りのプロンプトを不要にしながら,時系列を言語ベースモデルに効果的に統合する。
7つの実世界のベンチマークに関する大規模な実験は、TALONがすべてのデータセットで優れたパフォーマンスを達成し、最近の最先端の手法よりも平均11倍のMSE改善を実現していることを示している。
これらの結果は、時系列予測にLLMを適用する際にパターン認識と意味認識の両方を組み込むことの有効性を裏付けるものである。
コードは、https://github.com/syrGitHub/TALON.comで入手できる。
関連論文リスト
- UniT: Unified Multimodal Chain-of-Thought Test-time Scaling [85.590774707406]
統一モデルは単一のアーキテクチャ内でマルチモーダル理解と生成の両方を扱うことができるが、通常は出力を反復的に書き換えることなく単一のパスで操作する。
マルチモーダルなテストタイムスケーリングのためのフレームワークであるUniTを導入し、単一の統一モデルで複数のラウンドをまたいだ推論、検証、精査を可能にします。
論文 参考訳(メタデータ) (2026-02-12T18:59:49Z) - Multi-scale hypergraph meets LLMs: Aligning large language models for time series analysis [14.045113722315579]
本稿では,MSH-LLMを提案する。MSH-LLMは,時系列解析のために大規模言語モデルを調整するマルチスケールハイパーグラフ手法である。
具体的には、時系列意味空間のマルチスケール意味情報を強化するために、ハイパーエージング機構が設計されている。
時系列のマルチスケール時間パターンを理解するために、文脈情報を提供し、LLMの能力を高めるために、一連のプロンプト(MoP)機構を導入している。
論文 参考訳(メタデータ) (2026-02-04T09:47:00Z) - InstructTime++: Time Series Classification with Multimodal Language Modeling via Implicit Feature Enhancement [52.17579028504616]
InstructTimeは、時系列分類をマルチモーダルな生成タスクとして再構成する新しいフレームワークである。
InstructTime++は、言語モデルの限定的な帰納バイアスを補うために、暗黙のフィーチャモデリングを導入することで、InstructTimeを拡張している。
論文 参考訳(メタデータ) (2026-01-21T13:12:23Z) - UniDiff: A Unified Diffusion Framework for Multimodal Time Series Forecasting [90.47915032778366]
マルチモーダル時系列予測のための統合拡散フレームワークUniDiffを提案する。
コアには統一的で並列な融合モジュールがあり、単一のクロスアテンション機構がタイムスタンプからの構造化情報とテキストからのセマンティックコンテキストを統合する。
8つの領域にわたる実世界のベンチマークデータセットの実験は、提案したUniDiffモデルが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-12-08T05:36:14Z) - Semantic-Enhanced Time-Series Forecasting via Large Language Models [16.17642828644504]
時系列予測は、金融、エネルギー、気象学、IoTアプリケーションにおいて重要な役割を果たす。
近年,大規模言語モデル(LLM)の一般化機能を活用して時系列予測に適応し,有望な性能を実現している。
本稿では,時系列の固有周期性と異常特性を探索し,意味空間に埋め込むセマンティック拡張LDM(SE-LLM)を提案する。
論文 参考訳(メタデータ) (2025-08-11T07:19:21Z) - LLM4FTS: Enhancing Large Language Models for Financial Time Series Prediction [0.0]
従来の機械学習モデルは、制限されたモデル容量に制約された予測タスクに制限を示す。
我々は、学習可能なパッチセグメンテーションと動的ウェーブレット畳み込みモジュールによる時間的シーケンスモデリングを強化する新しいフレームワークLLM4FTS$を提案する。
実世界の金融データセットの実験は、このフレームワークの有効性を実証し、複雑な市場パターンを捉える上で優れたパフォーマンスを示し、ストックリターン予測の最先端結果を達成する。
論文 参考訳(メタデータ) (2025-05-05T06:48:34Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Adapting Large Language Models for Time Series Modeling via a Novel Parameter-efficient Adaptation Method [9.412920379798928]
時系列モデリングは多くの実世界のアプリケーションにおいて重要な意味を持つ。
我々は時系列と自然言語のモダリティを調整するためのTime-LlaMAフレームワークを提案する。
本稿では,提案手法がSOTA(State-of-the-art)性能を実現することを示す。
論文 参考訳(メタデータ) (2025-02-19T13:52:26Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。