論文の概要: Revisiting Backdoor Attacks on Time Series Classification in the Frequency Domain
- arxiv url: http://arxiv.org/abs/2503.09712v1
- Date: Wed, 12 Mar 2025 18:05:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:55:03.054199
- Title: Revisiting Backdoor Attacks on Time Series Classification in the Frequency Domain
- Title(参考訳): 周波数領域における時系列分類におけるバックドア攻撃の再検討
- Authors: Yuanmin Huang, Mi Zhang, Zhaoxiang Wang, Wenxuan Li, Min Yang,
- Abstract要約: 時系列分類(TSC)は現代のウェブアプリケーションの基盤となっている。
ディープニューラルネットワーク(DNN)は、臨界領域におけるTSCモデルの性能を大幅に向上させた。
- 参考スコア(独自算出の注目度): 13.76843963426352
- License:
- Abstract: Time series classification (TSC) is a cornerstone of modern web applications, powering tasks such as financial data analysis, network traffic monitoring, and user behavior analysis. In recent years, deep neural networks (DNNs) have greatly enhanced the performance of TSC models in these critical domains. However, DNNs are vulnerable to backdoor attacks, where attackers can covertly implant triggers into models to induce malicious outcomes. Existing backdoor attacks targeting DNN-based TSC models remain elementary. In particular, early methods borrow trigger designs from computer vision, which are ineffective for time series data. More recent approaches utilize generative models for trigger generation, but at the cost of significant computational complexity. In this work, we analyze the limitations of existing attacks and introduce an enhanced method, FreqBack. Drawing inspiration from the fact that DNN models inherently capture frequency domain features in time series data, we identify that improper perturbations in the frequency domain are the root cause of ineffective attacks. To address this, we propose to generate triggers both effectively and efficiently, guided by frequency analysis. FreqBack exhibits substantial performance across five models and eight datasets, achieving an impressive attack success rate of over 90%, while maintaining less than a 3% drop in model accuracy on clean data.
- Abstract(参考訳): 時系列分類(TSC)は、金融データ分析、ネットワークトラフィック監視、ユーザー行動分析などのタスクを動力とする、現代のWebアプリケーションの基盤である。
近年、ディープニューラルネットワーク(DNN)は、これらの重要な領域におけるTSCモデルの性能を大幅に向上させてきた。
しかし、DNNはバックドア攻撃に弱いため、攻撃者はモデルにトリガーを隠蔽して悪意のある結果をもたらすことができる。
既存のDNNベースのTSCモデルをターゲットにしたバックドア攻撃は基本的のままである。
特に、初期の手法はコンピュータビジョンからトリガーデザインを借用しており、時系列データには効果がない。
近年のアプローチでは、生成モデルをトリガー生成に利用しているが、計算の複雑さがかなり大きい。
本研究では,既存の攻撃の限界を分析し,FreqBackという拡張メソッドを導入する。
DNNモデルが本質的に時系列データ中の周波数領域の特徴を捉えているという事実から着想を得た結果、周波数領域における不適切な摂動が攻撃の根本原因であることが判明した。
そこで本研究では,周波数解析により効率的にかつ効率的にトリガを生成することを提案する。
FreqBackは5つのモデルと8つのデータセットで大幅なパフォーマンスを示し、90%以上の攻撃成功率を達成すると同時に、クリーンデータに対するモデル精度の3%以下を維持している。
関連論文リスト
- A Temporal Convolutional Network-based Approach for Network Intrusion Detection [0.0]
本研究では,ネットワークトラフィックデータの依存関係をキャプチャするために,拡張畳み込みを伴う残差ブロックアーキテクチャを特徴とする時間畳み込みネットワーク(TCN)モデルを提案する。
提案したモデルは96.72%の精度と0.0688の損失を達成し、1D CNN、CNN-LSTM、CNN-GRU、CNN-BiLSTM、CNN-GRU-LSTMモデルを上回った。
論文 参考訳(メタデータ) (2024-12-23T10:19:29Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - TSFool: Crafting Highly-Imperceptible Adversarial Time Series through Multi-Objective Attack [6.243453526766042]
TSFoolと呼ばれる効率的な手法を提案する。
中心となる考え方は、「カモフラージュ係数」(Camouflage Coefficient)と呼ばれる新しい大域的な最適化目標であり、クラス分布から反対サンプルの非受容性を捉えるものである。
11のUCRデータセットとUEAデータセットの実験では、TSFoolは6つのホワイトボックスと3つのブラックボックスベンチマークアタックを著しく上回っている。
論文 参考訳(メタデータ) (2022-09-14T03:02:22Z) - Radial Spike and Slab Bayesian Neural Networks for Sparse Data in
Ransomware Attacks [7.599718568619666]
近似した後続分布の新しい形式を含む新しいタイプのベイズニューラルネットワークを提案する。
ランサムウェア攻撃の実際のデータセット上でのモデルの性能を実証し、多数のベースラインに対して改善を示す。
さらに,MITRE ATT&CK戦術,技術,手順 (TTP) として低レベル事象を表現することを提案する。
論文 参考訳(メタデータ) (2022-05-29T20:18:14Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Model Extraction Attacks against Recurrent Neural Networks [1.2891210250935146]
繰り返しニューラルネットワーク(RNN)に対するモデル抽出攻撃の脅威について検討する。
長い短期記憶(LSTM)から単純なRNNを用いて精度の高いモデルを抽出できるかどうかを論じる。
次に、特に損失関数とより複雑なアーキテクチャを構成することにより、精度の高いモデルを効率的に抽出できることを示す。
論文 参考訳(メタデータ) (2020-02-01T01:47:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。