論文の概要: Can Multimodal LLMs Perform Time Series Anomaly Detection?
- arxiv url: http://arxiv.org/abs/2502.17812v1
- Date: Tue, 25 Feb 2025 03:37:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:23:08.078663
- Title: Can Multimodal LLMs Perform Time Series Anomaly Detection?
- Title(参考訳): LLMの時系列異常検出は可能か?
- Authors: Xiongxiao Xu, Haoran Wang, Yueqing Liang, Philip S. Yu, Yue Zhao, Kai Shu,
- Abstract要約: 時系列異常検出(TSAD)におけるMLLM評価のためのVisualTimeAnomalyベンチマークを提案する。
提案手法は時系列の数値データを画像形式に変換し,これらの画像を様々なMLLMにフィードする。
VisualTimeAnomalyには3つのシナリオと3つの異常な粒度の12.4kの時系列イメージがあり、8つのMLLMに9つの異常型がある。
- 参考スコア(独自算出の注目度): 55.534264764673296
- License:
- Abstract: Large language models (LLMs) have been increasingly used in time series analysis. However, the potential of multimodal LLMs (MLLMs), particularly vision-language models, for time series remains largely under-explored. One natural way for humans to detect time series anomalies is through visualization and textual description. Motivated by this, we raise a critical and practical research question: Can multimodal LLMs perform time series anomaly detection? To answer this, we propose VisualTimeAnomaly benchmark to evaluate MLLMs in time series anomaly detection (TSAD). Our approach transforms time series numerical data into the image format and feed these images into various MLLMs, including proprietary models (GPT-4o and Gemini-1.5) and open-source models (LLaVA-NeXT and Qwen2-VL), each with one larger and one smaller variant. In total, VisualTimeAnomaly contains 12.4k time series images spanning 3 scenarios and 3 anomaly granularities with 9 anomaly types across 8 MLLMs. Starting with the univariate case (point- and range-wise anomalies), we extend our evaluation to more practical scenarios, including multivariate and irregular time series scenarios, and variate-wise anomalies. Our study reveals several key insights: 1) MLLMs detect range- and variate-wise anomalies more effectively than point-wise anomalies. 2) MLLMs are highly robust to irregular time series, even with 25% of the data missing. 3) Open-source MLLMs perform comparably to proprietary models in TSAD. While open-source MLLMs excel on univariate time series, proprietary MLLMs demonstrate superior effectiveness on multivariate time series. To the best of our knowledge, this is the first work to comprehensively investigate MLLMs for TSAD, particularly for multivariate and irregular time series scenarios. We release our dataset and code at https://github.com/mllm-ts/VisualTimeAnomaly to support future research.
- Abstract(参考訳): 大規模言語モデル (LLM) は時系列解析においてますます使われている。
しかし,マルチモーダル LLM (MLLMs) の時系列化の可能性はいまだに未解明のままである。
人間が時系列異常を検出する自然な方法の1つは、可視化とテキスト記述である。
マルチモーダルLLMは時系列異常検出を実行できるのか?
そこで本稿では,時系列異常検出(TSAD)におけるMLLMの評価を行うためのVisualTimeAnomalyベンチマークを提案する。
提案手法では,時系列の数値データを画像形式に変換し,プロプライエタリモデル (GPT-4o と Gemini-1.5) やオープンソースモデル (LLaVA-NeXT と Qwen2-VL) などのMLLMに供給する。
VisualTimeAnomalyには3つのシナリオと3つの異常な粒度の12.4kの時系列イメージがあり、8つのMLLMに9つの異常型がある。
単変量の場合(ポイントワイドおよび範囲ワイド異常)から、多変量および不規則時系列シナリオ、変量ワイド異常を含むより実践的なシナリオに評価を拡張します。
1) MLLMは, 点方向の異常よりも, 範囲方向および変量方向の異常を効果的に検出する。
2)MLLMはデータの25%が欠落していても、不規則な時系列に対して非常に堅牢である。
3)オープンソースMLLMはTSADのプロプライエタリモデルと互換性がある。
オープンソースMLLMは単変量時系列より優れているが、プロプライエタリMLLMは多変量時系列において優れた効果を示す。
我々の知る限りでは、特に多変量および不規則時系列シナリオにおいて、TSADのMLLMを包括的に調査する最初の研究である。
将来の研究をサポートするために、データセットとコードをhttps://github.com/mllm-ts/VisualTimeAnomalyでリリースします。
関連論文リスト
- Position: Empowering Time Series Reasoning with Multimodal LLMs [49.73647759532127]
マルチモーダル言語モデル (MLLM) は時系列解析においてより強力で柔軟な推論を可能にすると論じる。
我々は、MLLMにおける信頼、解釈可能性、堅牢な推論を優先する戦略を開発することで、この可能性を活用するよう研究者や実践者に呼びかける。
論文 参考訳(メタデータ) (2025-02-03T16:10:48Z) - Can Multimodal LLMs do Visual Temporal Understanding and Reasoning? The answer is No! [22.75945626401567]
本稿では,TemporalVQAという評価ベンチマークを提案する。
第1部では、時間的に連続するビデオフレームを分析してイベントのシーケンスを決定するためにMLLMが必要である。
第2部では、複数選択の質問としてフレーム化された時間差のある画像ペアを提示し、MLLMに秒から数年のオプションで画像間のタイムラプスを見積もる。
GPT-4o や Gemini-1.5-Pro などのモデルを含む先進MLLM の評価は,重要な課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-01-18T06:41:48Z) - Can LLMs Understand Time Series Anomalies? [20.848375315326305]
大規模言語モデル (LLM) は時系列予測で人気を博しているが, 異常検出の可能性はほとんど未解明である。
本研究では,ゼロショットと少数ショットのシナリオに着目し,時系列データ中の異常をLLMが理解し,検出できるかどうかを検討する。
この結果から,LLMは時系列異常を理解できるが,その推論能力に基づく多くの共通予想は成り立たないことが示唆された。
論文 参考訳(メタデータ) (2024-10-07T19:16:02Z) - Towards Time Series Reasoning with LLMs [0.4369058206183195]
本稿では,ゼロショット性能の強い領域にまたがる一般化可能な情報を学習する,新しいマルチモーダル時系列LPM手法を提案する。
提案モデルでは,特定の時系列特徴を反映した潜時表現を学習し,ゼロショット推論タスクのセットにおいてGPT-4oより優れることを示す。
論文 参考訳(メタデータ) (2024-09-17T17:23:44Z) - Can LLMs Serve As Time Series Anomaly Detectors? [33.28502093260832]
大規模言語モデル(LLM)における新たなトピックは、時系列予測への応用である。
本稿では,LLM,特にGPT-4とLLaMA3の時系列における異常の検出・説明能力について検討する。
論文 参考訳(メタデータ) (2024-08-06T23:14:39Z) - MIBench: Evaluating Multimodal Large Language Models over Multiple Images [70.44423964171088]
マルチイメージシナリオにおけるMLLMの微粒化能力を包括的に評価する新しいベンチマークMIBenchを提案する。
具体的には、MIBenchはマルチモーダル・インコンテクスト・ラーニング(MIC)とマルチモーダル・インコンテクスト・ラーニング(MIC)の3つのシナリオに分類する。
その結果、現在のモデルでは単一画像のタスクが優れているが、複数画像の入力に直面すると大きな欠点が現れることがわかった。
論文 参考訳(メタデータ) (2024-07-21T21:22:58Z) - Anomaly Detection of Tabular Data Using LLMs [54.470648484612866]
我々は,事前訓練された大規模言語モデル (LLM) がゼロショットバッチレベルの異常検出器であることを示す。
本稿では,実異常検出におけるLCMの潜在性を明らかにするために,エンドツーエンドの微調整手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T04:17:03Z) - MultiCast: Zero-Shot Multivariate Time Series Forecasting Using LLMs [0.8329456268842227]
MultiCast は多変量時系列予測のためのゼロショット LLM ベースのアプローチである。
3つの新しいトークン多重化ソリューションは、キー繰り返しパターンを保持しながら、次元性を効果的に減少させる。
実世界の3つのデータセットに対する最先端アプローチに対するRMSEと実行時間の観点から,我々のアプローチのパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-05-23T16:16:00Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。