論文の概要: Multi-scale hypergraph meets LLMs: Aligning large language models for time series analysis
- arxiv url: http://arxiv.org/abs/2602.04369v1
- Date: Wed, 04 Feb 2026 09:47:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.462199
- Title: Multi-scale hypergraph meets LLMs: Aligning large language models for time series analysis
- Title(参考訳): マルチスケールハイパーグラフとLLM:時系列解析のための大規模言語モデルのアライメント
- Authors: Zongjiang Shang, Dongliang Cui, Binqing Wu, Ling Chen,
- Abstract要約: 本稿では,MSH-LLMを提案する。MSH-LLMは,時系列解析のために大規模言語モデルを調整するマルチスケールハイパーグラフ手法である。
具体的には、時系列意味空間のマルチスケール意味情報を強化するために、ハイパーエージング機構が設計されている。
時系列のマルチスケール時間パターンを理解するために、文脈情報を提供し、LLMの能力を高めるために、一連のプロンプト(MoP)機構を導入している。
- 参考スコア(独自算出の注目度): 14.045113722315579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been great success in leveraging pre-trained large language models (LLMs) for time series analysis. The core idea lies in effectively aligning the modality between natural language and time series. However, the multi-scale structures of natural language and time series have not been fully considered, resulting in insufficient utilization of LLMs capabilities. To this end, we propose MSH-LLM, a Multi-Scale Hypergraph method that aligns Large Language Models for time series analysis. Specifically, a hyperedging mechanism is designed to enhance the multi-scale semantic information of time series semantic space. Then, a cross-modality alignment (CMA) module is introduced to align the modality between natural language and time series at different scales. In addition, a mixture of prompts (MoP) mechanism is introduced to provide contextual information and enhance the ability of LLMs to understand the multi-scale temporal patterns of time series. Experimental results on 27 real-world datasets across 5 different applications demonstrate that MSH-LLM achieves the state-of-the-art results.
- Abstract(参考訳): 近年,事前学習された大規模言語モデル(LLM)を時系列解析に活用することに成功した。
中心となる考え方は、自然言語と時系列のモダリティを効果的に整合させることにある。
しかし、自然言語と時系列のマルチスケール構造は十分に考慮されていないため、LLMの能力は不十分である。
そこで本研究では,MSH-LLMを提案する。
具体的には、時系列意味空間のマルチスケール意味情報を強化するために、ハイパーエージング機構が設計されている。
そして、異なるスケールで自然言語と時系列のモダリティを調整するために、CMAモジュールを導入する。
さらに、時系列のマルチスケール時間パターンを理解するために、文脈情報を提供し、LLMの能力を高めるために、一連のプロンプト(MoP)機構を導入している。
5つの異なるアプリケーションにわたる27の実世界のデータセットに関する実験結果は、MSH-LLMが最先端の結果を達成することを示す。
関連論文リスト
- SciTS: Scientific Time Series Understanding and Generation with LLMs [53.35994674187729]
SciTSは12の科学領域と43のタスクにまたがるベンチマークである。
テキストのみのLLM、マルチモーダルのLLM、統合時系列モデルを含む17のモデルをベンチマークする。
次に、時系列を理解して生成する能力を備えたLLMに対応するフレームワークであるTime Omniを紹介します。
論文 参考訳(メタデータ) (2025-09-26T09:25:16Z) - Adapting LLMs to Time Series Forecasting via Temporal Heterogeneity Modeling and Semantic Alignment [32.41581846555808]
大規模言語モデル(LLM)は、最近、自然言語処理における印象的な能力を実証した。
時間的アライメントのモデル化と意味的アライメントの強化によりLLMに基づく予測を強化する統合フレームワークであるTALONを提案する。
7つの実世界のベンチマークの実験では、TALONはすべてのデータセットで優れたパフォーマンスを達成している。
論文 参考訳(メタデータ) (2025-08-10T06:06:19Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Adapting Large Language Models for Time Series Modeling via a Novel Parameter-efficient Adaptation Method [9.412920379798928]
時系列モデリングは多くの実世界のアプリケーションにおいて重要な意味を持つ。
我々は時系列と自然言語のモダリティを調整するためのTime-LlaMAフレームワークを提案する。
本稿では,提案手法がSOTA(State-of-the-art)性能を実現することを示す。
論文 参考訳(メタデータ) (2025-02-19T13:52:26Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。