論文の概要: MLLM4TS: Leveraging Vision and Multimodal Language Models for General Time-Series Analysis
- arxiv url: http://arxiv.org/abs/2510.07513v1
- Date: Wed, 08 Oct 2025 20:22:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.715957
- Title: MLLM4TS: Leveraging Vision and Multimodal Language Models for General Time-Series Analysis
- Title(参考訳): MLLM4TS:一般時系列解析のためのビジョンとマルチモーダル言語モデル
- Authors: Qinghua Liu, Sam Heshmati, Zheda Mai, Zubin Abraham, John Paparrizos, Liu Ren,
- Abstract要約: MLLM4TSは,マルチモーダルな大規模言語モデルを利用して時系列解析を行う新しいフレームワークである。
各時系列チャンネルは、1つの合成画像において水平に重ねられたカラー符号化された線プロットとして描画される。
時間対応の視覚パッチアライメント戦略では、視覚パッチを対応する時間セグメントにアライメントする。
- 参考スコア(独自算出の注目度): 35.17244645389017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective analysis of time series data presents significant challenges due to the complex temporal dependencies and cross-channel interactions in multivariate data. Inspired by the way human analysts visually inspect time series to uncover hidden patterns, we ask: can incorporating visual representations enhance automated time-series analysis? Recent advances in multimodal large language models have demonstrated impressive generalization and visual understanding capability, yet their application to time series remains constrained by the modality gap between continuous numerical data and discrete natural language. To bridge this gap, we introduce MLLM4TS, a novel framework that leverages multimodal large language models for general time-series analysis by integrating a dedicated vision branch. Each time-series channel is rendered as a horizontally stacked color-coded line plot in one composite image to capture spatial dependencies across channels, and a temporal-aware visual patch alignment strategy then aligns visual patches with their corresponding time segments. MLLM4TS fuses fine-grained temporal details from the numerical data with global contextual information derived from the visual representation, providing a unified foundation for multimodal time-series analysis. Extensive experiments on standard benchmarks demonstrate the effectiveness of MLLM4TS across both predictive tasks (e.g., classification) and generative tasks (e.g., anomaly detection and forecasting). These results underscore the potential of integrating visual modalities with pretrained language models to achieve robust and generalizable time-series analysis.
- Abstract(参考訳): 時系列データの効率的な解析は、多変量データにおける複雑な時間的依存関係とチャネル間相互作用による重要な課題を示す。
人間のアナリストが時系列を視覚的に検査して隠れたパターンを明らかにする方法に触発されて、私たちは次のような質問をした。
マルチモーダルな大規模言語モデルの最近の進歩は、目覚ましい一般化と視覚的理解能力を示しているが、連続的な数値データと離散的な自然言語とのモダリティギャップにより、時系列への応用は制限され続けている。
このギャップを埋めるために、我々はMLLM4TSを紹介した。MLLM4TSは、多モーダルな大規模言語モデルを利用して、専用のビジョンブランチを統合することで、一般的な時系列解析を行う新しいフレームワークである。
各時系列チャンネルは、1つの合成画像に水平に重ねられたカラーコード線プロットとして描画され、チャネル間の空間的依存関係をキャプチャし、時間対応の視覚パッチアライメント戦略により、視覚パッチを対応する時間セグメントと整列する。
MLLM4TSは、数値データからの微細な時間的詳細を視覚表現から得られた大域的な文脈情報と融合し、マルチモーダル時系列解析のための統一的な基盤を提供する。
標準ベンチマークでの大規模な実験は、予測タスク(例えば、分類)と生成タスク(例えば、異常検出と予測)の両方にわたるMLLM4TSの有効性を示す。
これらの結果は、頑健で一般化可能な時系列解析を実現するために、事前訓練された言語モデルと視覚的モダリティを統合する可能性を強調している。
関連論文リスト
- Augmenting LLMs for General Time Series Understanding and Prediction [2.426309874608745]
時系列データは、医療、金融、環境科学を含む多くの重要な領域における意思決定に不可欠である。
TsLLM(Time Series-augmented LLM)を200万回以上のインターリーブされた時系列とテキストサンプルの大規模なコーパスでトレーニングする。
このトレーニングにより、TsLLMは言語理解と新たに獲得した時間的推論機能の両方を活用することができる。
論文 参考訳(メタデータ) (2025-10-01T16:54:46Z) - Time-RA: Towards Time Series Reasoning for Anomaly with LLM Feedback [55.284574165467525]
Time-RA(Time-Series Reasoning for Anomaly)は、時系列異常検出を生成的、推論集約的なタスクに変換する。
また,実世界のマルチモーダルベンチマークデータセットであるRATs40Kを導入する。
論文 参考訳(メタデータ) (2025-07-20T18:02:50Z) - Teaching Time Series to See and Speak: Forecasting with Aligned Visual and Textual Perspectives [22.10401153489018]
時系列の予測は伝統的に単調な数値入力に依存している。
生の時系列を構造化された視覚的・テキスト的視点に変換するマルチモーダルコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-30T17:59:14Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(TaTS)は、既存の数値のみの時系列モデルにプラグインできる。
TaTSはモデルアーキテクチャを変更することなく予測性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - Harnessing Vision Models for Time Series Analysis: A Survey [85.65718718797643]
本研究は, 時系列解析におけるLLMよりも視覚モデルの方が優れていることを示す。
既存の方法の包括的かつ詳細な概要を提供し、詳細な分類学の双対的な見解を提供する。
このフレームワークに関わる前処理と後処理のステップにおける課題に対処する。
論文 参考訳(メタデータ) (2025-02-13T00:42:11Z) - Time Series Language Model for Descriptive Caption Generation [11.796431549951055]
本稿では,時系列キャプションに特化して設計された新しい時系列言語モデルTSLMを紹介する。
TSLMはエンコーダ・デコーダモデルとして機能し、テキストプロンプトと時系列データ表現の両方を活用する。
TSLMは、複数のデータモダリティから既存の最先端アプローチよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2025-01-03T14:34:30Z) - ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning [10.854285913078257]
本稿では,時系列解析用に設計された新しいMLLMであるChatTSを紹介する。
ChatTSは、視覚MLLMが画像を処理する方法と同様、時系列をモダリティとして扱う。
Time Series Evol-Instructは様々な時系列Q&Aを生成し、モデルの推論能力を高めます。
論文 参考訳(メタデータ) (2024-12-04T08:06:15Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。