論文の概要: Keep the Lights On, Keep the Lengths in Check: Plug-In Adversarial Detection for Time-Series LLMs in Energy Forecasting
- arxiv url: http://arxiv.org/abs/2512.12154v1
- Date: Sat, 13 Dec 2025 03:24:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.141675
- Title: Keep the Lights On, Keep the Lengths in Check: Plug-In Adversarial Detection for Time-Series LLMs in Energy Forecasting
- Title(参考訳): 電球を点灯し、長さをチェック:エネルギー予測における時系列LDMのプラグイン逆検出
- Authors: Hua Ma, Ruoxi Sun, Minhui Xue, Xingliang Yuan, Carsten Rudolph, Surya Nepal, Ling Liu,
- Abstract要約: 本稿では,TS-LLMの可変長入力機能を利用したプラグイン検出フレームワークを提案する。
我々は3つのエネルギーデータセットにまたがる3つの代表的なTS-LLMに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 35.31487571405278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate time-series forecasting is increasingly critical for planning and operations in low-carbon power systems. Emerging time-series large language models (TS-LLMs) now deliver this capability at scale, requiring no task-specific retraining, and are quickly becoming essential components within the Internet-of-Energy (IoE) ecosystem. However, their real-world deployment is complicated by a critical vulnerability: adversarial examples (AEs). Detecting these AEs is challenging because (i) adversarial perturbations are optimized across the entire input sequence and exploit global temporal dependencies, which renders local detection methods ineffective, and (ii) unlike traditional forecasting models with fixed input dimensions, TS-LLMs accept sequences of variable length, increasing variability that complicates detection. To address these challenges, we propose a plug-in detection framework that capitalizes on the TS-LLM's own variable-length input capability. Our method uses sampling-induced divergence as a detection signal. Given an input sequence, we generate multiple shortened variants and detect AEs by measuring the consistency of their forecasts: Benign sequences tend to produce stable predictions under sampling, whereas adversarial sequences show low forecast similarity, because perturbations optimized for a full-length sequence do not transfer reliably to shorter, differently-structured subsamples. We evaluate our approach on three representative TS-LLMs (TimeGPT, TimesFM, and TimeLLM) across three energy datasets: ETTh2 (Electricity Transformer Temperature), NI (Hourly Energy Consumption), and Consumption (Hourly Electricity Consumption and Production). Empirical results confirm strong and robust detection performance across both black-box and white-box attack scenarios, highlighting its practicality as a reliable safeguard for TS-LLM forecasting in real-world energy systems.
- Abstract(参考訳): 正確な時系列予測は、低炭素電力システムの計画と運用においてますます重要になっている。
新たな時系列大言語モデル(TS-LLM)は、タスク固有のリトレーニングを必要とせず、この機能を大規模に提供し、インターネット・オブ・エネルギ(IoE)エコシステムにおいて、急速に重要なコンポーネントになりつつある。
しかし、彼らの現実のデプロイメントは、重大な脆弱性によって複雑である。
AEsの検出は難しいためです。
i) 対向摂動は入力シーケンス全体にわたって最適化され、グローバルな時間的依存関係を利用する。
(II) 固定入力次元を持つ従来の予測モデルとは異なり、TS-LLMは可変長の列を受け入れ、検出を複雑にする変動性を増加させる。
これらの課題に対処するために,TS-LLM独自の可変長入力機能を利用するプラグイン検出フレームワークを提案する。
本手法では,サンプリング誘起発散を検出信号として用いる。
一方、逆数列は、フル長列に最適化された摂動が、より短く、異なる構造を持つサブサンプルに確実に伝達されないため、低い予測類似性を示す。
ETTh2 (Electricity Transformer Temperature) とNI (Hourly Energy Consumption) とConsumption (Hourly Electricity Consumption and Production) の3つのエネルギーデータセットを対象としたTS-LLM(TimeGPT, TimesFM, TimeLLM) について検討を行った。
実世界のエネルギーシステムにおけるTS-LLM予測の信頼性保証としての実用性を強調し、ブラックボックスとホワイトボックスの両方の攻撃シナリオにおける堅牢かつ堅牢な検出性能を確認した。
関連論文リスト
- LPCVAE: A Conditional VAE with Long-Term Dependency and Probabilistic Time-Frequency Fusion for Time Series Anomaly Detection [13.843801715719366]
時系列異常検出は信号処理分野において重要な課題である。
本稿では,長期依存性と確率的時間-周波数融合を有する変分オートエンコーダを提案する。
論文 参考訳(メタデータ) (2025-10-13T02:27:04Z) - Dynamic Temporal Positional Encodings for Early Intrusion Detection in IoT [3.6686692131754834]
IoT(Internet of Things)の急速な拡張は、重大なセキュリティ上の課題をもたらしている。
従来の侵入検知システム(IDS)は、しばしばネットワークトラフィックの時間的特性を見落としている。
動的時間的位置エンコーディングを組み込んだトランスフォーマーを用いた早期侵入検知システム(EIDS)を提案する。
論文 参考訳(メタデータ) (2025-06-22T17:56:19Z) - Spatial-Temporal-Spectral Unified Modeling for Remote Sensing Dense Prediction [20.1863553357121]
リモートセンシングのための現在のディープラーニングアーキテクチャは、基本的に堅固である。
本稿では,統合モデリングのための空間時間スペクトル統一ネットワーク(STSUN)について紹介する。
STSUNは任意の空間サイズ、時間長、スペクトル帯域で入力および出力データに適応することができる。
様々な密集した予測タスクと多様な意味クラス予測を統一する。
論文 参考訳(メタデータ) (2025-05-18T07:39:17Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Scalable Numerical Embeddings for Multivariate Time Series: Enhancing Healthcare Data Representation Learning [6.635084843592727]
独立トークンとして各特徴値を扱う新しいフレームワークであるSCANEを提案する。
SCANEは、異なる機能埋め込みの特性を正規化し、スケーラブルな埋め込みメカニズムを通じて表現学習を強化する。
本研究は,MTSの精度の高い予測出力を実現するために,nUMerical eMbeddIng Transformer (SUMMIT) を開発した。
論文 参考訳(メタデータ) (2024-05-26T13:06:45Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Evaluating Short-Term Forecasting of Multiple Time Series in IoT
Environments [67.24598072875744]
IoT(Internet of Things)環境は、多数のIoT対応センシングデバイスを介して監視される。
この問題を緩和するため、センサーは比較的低いサンプリング周波数で動作するように設定されることが多い。
これは、予測などの後続の意思決定を劇的に妨げる可能性がある。
論文 参考訳(メタデータ) (2022-06-15T19:46:59Z) - Contrastive predictive coding for Anomaly Detection in Multi-variate
Time Series Data [6.463941665276371]
本稿では,MVTSデータにおける異常検出に向けて,TRL-CPC(Contrastive Predictive Coding)を用いた時系列表現学習を提案する。
まず,エンコーダ,自動回帰器,非線形変換関数を共同で最適化し,MVTSデータセットの表現を効果的に学習する。
論文 参考訳(メタデータ) (2022-02-08T04:25:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。