論文の概要: BadTime: An Effective Backdoor Attack on Multivariate Long-Term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2508.04189v1
- Date: Wed, 06 Aug 2025 08:18:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.620636
- Title: BadTime: An Effective Backdoor Attack on Multivariate Long-Term Time Series Forecasting
- Title(参考訳): BadTime:多変量長期予測に対する効果的なバックドア攻撃
- Authors: Kunlan Xiang, Haomiao Yang, Meng Hao, Haoxin Wang, Shaofeng Li, Wenbo Jiang,
- Abstract要約: 我々は,MLTSFモデルに対するBadTimeと呼ばれる最初の効果的な攻撃手法を提案する。
BadTimeは、トレーニングデータを汚染し、バックドアトレーニングプロセスをカスタマイズすることでバックドア攻撃を実行する。
我々はBadTimeが時系列予測に対するSOTA(State-of-the-art)バックドア攻撃を著しく上回っていることを示す。
- 参考スコア(独自算出の注目度): 7.944280447232543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate Long-Term Time Series Forecasting (MLTSF) models are increasingly deployed in critical domains such as climate, finance, and transportation. Although a variety of powerful MLTSF models have been proposed to improve predictive performance, the robustness of MLTSF models against malicious backdoor attacks remains entirely unexplored, which is crucial to ensuring their reliable and trustworthy deployment. To address this gap, we conduct an in-depth study on backdoor attacks against MLTSF models and propose the first effective attack method named BadTime. BadTime executes a backdoor attack by poisoning training data and customizing the backdoor training process. During data poisoning, BadTime proposes a contrast-guided strategy to select the most suitable training samples for poisoning, then employs a graph attention network to identify influential variables for trigger injection. Subsequently, BadTime further localizes optimal positions for trigger injection based on lag analysis and proposes a puzzle-like trigger structure that distributes the trigger across multiple poisoned variables to jointly steer the prediction of the target variable. During backdoor training, BadTime alternately optimizes the model and triggers via proposed tailored optimization objectives. Extensive experiments show that BadTime significantly outperforms state-of-the-art (SOTA) backdoor attacks on time series forecasting by reducing MAE by over 50% on target variables and boosting stealthiness by more than 3 times.
- Abstract(参考訳): 多変量長期時系列予測(MLTSF)モデルは、気候、金融、交通といった重要な領域にますます導入されている。
予測性能を改善するために、様々な強力なMLTSFモデルが提案されているが、悪意のあるバックドア攻撃に対するMLTSFモデルの堅牢性は完全に探索されていない。
このギャップに対処するため、MLTSFモデルに対するバックドアアタックの詳細な研究を行い、BadTimeという最初の効果的なアタック手法を提案する。
BadTimeは、トレーニングデータを汚染し、バックドアトレーニングプロセスをカスタマイズすることでバックドア攻撃を実行する。
BadTimeは、データ中毒の間、最も適したトレーニングサンプルを選択するためのコントラスト誘導戦略を提案し、それからグラフアテンションネットワークを使用して、トリガーインジェクションに有効な変数を識別する。
その後、BadTimeは、ラグ分析に基づいてトリガーインジェクションの最適な位置をさらにローカライズし、ターゲット変数の予測を共同で行うために、複数の有毒変数にまたがるトリガーを分散するパズルのようなトリガー構造を提案する。
バックドアトレーニング中、BadTimeはモデルとトリガーを交互に最適化し、提案された最適化目標を通じてトリガーする。
大規模な実験では、BadTimeはターゲット変数のMAEを50%以上削減し、ステルスネスを3倍以上向上させることで、時系列予測における最先端(SOTA)バックドア攻撃を著しく上回っている。
関連論文リスト
- TooBadRL: Trigger Optimization to Boost Effectiveness of Backdoor Attacks on Deep Reinforcement Learning [38.79063331759597]
TooBadRLは、DRLバックドアトリガーを3つの臨界軸(時間、空間、大きさ)に沿って体系的に最適化するフレームワークである。
TooBadRLは,通常のタスク性能の低下を最小限に抑えつつ,攻撃成功率を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-06-11T09:50:17Z) - Revisiting Backdoor Attacks on Time Series Classification in the Frequency Domain [13.76843963426352]
時系列分類(TSC)は現代のウェブアプリケーションの基盤となっている。
ディープニューラルネットワーク(DNN)は、臨界領域におけるTSCモデルの性能を大幅に向上させた。
論文 参考訳(メタデータ) (2025-03-12T18:05:32Z) - Adversarial Vulnerabilities in Large Language Models for Time Series Forecasting [14.579802892916101]
大規模言語モデル(LLM)は、最近、時系列予測において大きな可能性を証明している。
しかし、現実世界のアプリケーションにおける堅牢性と信頼性は、まだ未調査のままである。
LLMに基づく時系列予測のためのターゲット対向攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-11T04:53:15Z) - Behavior Backdoor for Deep Learning Models [95.50787731231063]
我々は,行動訓練されたバックドアモデルトレーニング手順として定義された行動バックドアアタックに向けた第一歩を踏み出す。
本稿では,行動バックドアを実装する最初のパイプライン,すなわち量子バックドア(QB)攻撃を提案する。
さまざまなモデル、データセット、タスクで実験が行われ、この新たなバックドア攻撃の有効性が実証された。
論文 参考訳(メタデータ) (2024-12-02T10:54:02Z) - Mind the Cost of Scaffold! Benign Clients May Even Become Accomplices of Backdoor Attack [16.104941796138128]
BadSFLはScaffoldをターゲットにした最初のバックドア攻撃である。
攻撃者の毒殺方向へのクライアントの局所的な勾配更新を無視し、効果的に無知の共犯者へと変える。
BadSFLは攻撃耐久性に優れ、60回以上のグローバルラウンドで有効性を維持し、既存のベースラインの最大3倍の長寿命を維持できる。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - BACKTIME: Backdoor Attacks on Multivariate Time Series Forecasting [43.43987251457314]
本稿では,BackTime という効果的な攻撃手法を提案する。
MTSデータにいくつかのステルスなトリガを微妙に注入することで、BackTimeは攻撃者の意図に応じて予測モデルの予測を変更することができる。
BackTimeは、まずデータ中の有害なタイムスタンプを特定し、次に、ステルスで効果的なトリガーを適応的に合成する。
論文 参考訳(メタデータ) (2024-10-03T04:16:49Z) - Revisiting Backdoor Attacks against Large Vision-Language Models from Domain Shift [104.76588209308666]
本稿では,LVLMの学習訓練におけるバックドア攻撃について検討する。
我々は,攻撃の堅牢性を評価するために,新たな評価次元,バックドア領域の一般化を導入する。
本稿では,ドメイン非依存的トリガを臨界領域に注入するマルチモーダルアトリビューションバックドアアタック(MABA)を提案する。
論文 参考訳(メタデータ) (2024-06-27T02:31:03Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Protecting Federated Learning from Extreme Model Poisoning Attacks via Multidimensional Time Series Anomaly Detection [1.624124570511833]
FLANDERSは,大規模モデル中毒に対するFL耐性を示す新しいプレアグリゲーションフィルタである。
FLANDERSは、FLANDERSが標準およびロバストな既存のアグリゲーション手法と組み合わせることで、幅広い攻撃範囲にわたるロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-03-29T13:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。