論文の概要: ViTs: Teaching Machines to See Time Series Anomalies Like Human Experts
- arxiv url: http://arxiv.org/abs/2510.04710v1
- Date: Mon, 06 Oct 2025 11:24:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.826504
- Title: ViTs: Teaching Machines to See Time Series Anomalies Like Human Experts
- Title(参考訳): ViTs:人間のような時系列の異常をマシンに教える
- Authors: Zexin Wang, Changhua Pei, Yang Liu, Hengyue Jiang, Quan Zhou, Haotian Si, Hang Cui, Jianhui Li, Gaogang Xie, Jingjing Li, Dan Pei,
- Abstract要約: 時系列異常検出モデルでは,「シナリオをまたいで1回ずつ推測する」ことが根本的な課題である。
時系列曲線を視覚表現に変換するVLM(Vision-Language Model)ベースのフレームワークであるViTを提案する。
- 参考スコア(独自算出の注目度): 21.498848897981173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Web service administrators must ensure the stability of multiple systems by promptly detecting anomalies in Key Performance Indicators (KPIs). Achieving the goal of "train once, infer across scenarios" remains a fundamental challenge for time series anomaly detection models. Beyond improving zero-shot generalization, such models must also flexibly handle sequences of varying lengths during inference, ranging from one hour to one week, without retraining. Conventional approaches rely on sliding-window encoding and self-supervised learning, which restrict inference to fixed-length inputs. Large Language Models (LLMs) have demonstrated remarkable zero-shot capabilities across general domains. However, when applied to time series data, they face inherent limitations due to context length. To address this issue, we propose ViTs, a Vision-Language Model (VLM)-based framework that converts time series curves into visual representations. By rescaling time series images, temporal dependencies are preserved while maintaining a consistent input size, thereby enabling efficient processing of arbitrarily long sequences without context constraints. Training VLMs for this purpose introduces unique challenges, primarily due to the scarcity of aligned time series image-text data. To overcome this, we employ an evolutionary algorithm to automatically generate thousands of high-quality image-text pairs and design a three-stage training pipeline consisting of: (1) time series knowledge injection, (2) anomaly detection enhancement, and (3) anomaly reasoning refinement. Extensive experiments demonstrate that ViTs substantially enhance the ability of VLMs to understand and detect anomalies in time series data. All datasets and code will be publicly released at: https://anonymous.4open.science/r/ViTs-C484/.
- Abstract(参考訳): Webサービスの管理者は、キーパフォーマンス指標(KPI)の異常を迅速に検出することで、複数のシステムの安定性を保証する必要があります。
シナリオをまたいだトレーニング"という目標を達成することは、時系列異常検出モデルにおける根本的な課題である。
ゼロショット一般化の改善以外にも、そのようなモデルは推論中に1時間から1週間の様々な長さのシーケンスを、再訓練することなく柔軟に処理する必要がある。
従来のアプローチは、固定長入力に対する推論を制限するスライディングウインドウ符号化と自己教師付き学習に依存している。
LLM(Large Language Models)は、一般的なドメインにまたがる顕著なゼロショット機能を示す。
しかし、時系列データに適用すると、コンテキスト長による固有の制限に直面します。
この問題に対処するために、時系列曲線を視覚表現に変換する視覚言語モデル(VLM)ベースのフレームワークであるViTを提案する。
時系列画像を再スケーリングすることにより、一貫した入力サイズを維持しながら時間的依存を保存し、コンテキスト制約のない任意の長いシーケンスの効率的な処理を可能にする。
この目的のためにVLMをトレーニングすることは、主に時系列画像テキストデータの整合性が不足しているため、ユニークな課題をもたらす。
これを解決するために、進化的アルゴリズムを用いて、何千もの高品質な画像テキストペアを自動的に生成し、(1)時系列知識注入、(2)異常検出強化、(3)異常推論改善からなる3段階の訓練パイプラインを設計する。
大規模な実験により、VLMは時系列データの異常を理解し検出する能力を大幅に向上することが示された。
すべてのデータセットとコードは、https://anonymous.4open.science/r/ViTs-C484/で公開される。
関連論文リスト
- VISTA: Unsupervised 2D Temporal Dependency Representations for Time Series Anomaly Detection [42.694234312755285]
時系列異常検出(TSAD)は、ラベルのない時系列データの中で稀で潜在的に有害な事象を明らかにするのに不可欠である。
本稿では,これらの課題を克服するために,トレーニング不要で教師なしのTSADアルゴリズムであるVISTAを紹介する。
論文 参考訳(メタデータ) (2025-04-03T11:20:49Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Training-Free Time-Series Anomaly Detection: Leveraging Image Foundation Models [0.0]
画像ベースでトレーニング不要な時系列異常検出(ITF-TAD)手法を提案する。
ITF-TADは、時系列データをウェーブレット変換を用いて画像に変換し、それらを単一の表現に圧縮し、画像基礎モデルを利用して異常検出を行う。
論文 参考訳(メタデータ) (2024-08-27T03:12:08Z) - TSLANet: Rethinking Transformers for Time Series Representation Learning [19.795353886621715]
時系列データは、その固有の長短の依存関係によって特徴づけられる。
本稿では,時系列タスクの普遍的畳み込みモデルとして,新しい時系列軽量ネットワーク(TSLANet)を導入する。
我々の実験では、TSLANetは分類、予測、異常検出にまたがる様々なタスクにおいて最先端のモデルよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-04-12T13:41:29Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - EdgeConvFormer: Dynamic Graph CNN and Transformer based Anomaly
Detection in Multivariate Time Series [7.514010315664322]
本研究では,階層化されたTime2vec埋め込み,動的グラフCNN,Transformerを統合し,グローバルかつ局所的な空間時間情報を抽出する新たな異常検出手法EdgeConvFormerを提案する。
実験により、EdgeConvFormerは、多変量時系列データから時空間モデリングを学習し、異なるスケールの多くの実世界のデータセットに対する最先端のアプローチよりも優れた異常検出性能を得ることができることが示された。
論文 参考訳(メタデータ) (2023-12-04T08:38:54Z) - Large Language Models Are Zero-Shot Time Series Forecasters [48.73953666153385]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。